# Wild-OmniDocBench
**面向真实场景的文档解析鲁棒性评测基准**
English •
论文 •
GitHub •
HuggingFace
## 概述
**Wild-OmniDocBench** 是一个用于评估文档解析模型在真实拍摄条件下鲁棒性的基准测试。它基于 [OmniDocBench](https://github.com/opendatalab/OmniDocBench),通过受控的物理模拟将扫描/数字文档转换为真实拍摄图像,包括打印、物理变形以及在多种光照条件下拍摄。
与依赖清晰扫描或数字原生页面的标准基准不同,Wild-OmniDocBench 引入了真实场景下的各类干扰:
- **几何畸变**(透视变换、弯曲、褶皱)
- **光照变化**(定向光、不均匀光、低光环境)
- **屏幕翻拍伪影**(摩尔纹、反光)
- **环境干扰**(背景叠加、阴影)
> **说明:** 当前发布的 Wild-OmniDocBench 对应 **OmniDocBench v1.5**。我们正在处理 v1.6 版本的扩充部分,将在后续开源。
## 基准统计
| 项目 | 详情 |
|------|------|
| 图片总数 | 1,350 |
| 来源 | OmniDocBench 的真实拍摄变体 |
| 文档类型 | 书籍、教材、论文、PPT、报纸、笔记、考试、杂志、财报等 |
| 采集方式 | (i) 打印 + 物理变形 + 拍照;(ii) 屏幕显示 + 翻拍 |
| 标注 | 继承自 OmniDocBench(完整结构和阅读顺序标注) |
## 数据格式
### 目录结构
```
Wild_OmniDocBench/
├── README.md # 英文说明
├── README_ZH.md # 中文说明
├── wild_omnidocbench.zip # 基准图片(1,350 张 JPG)
└── assets/
└── overview.png # 概览图
```
### 图片
解压 `wild_omnidocbench.zip` 后,图片命名遵循 OmniDocBench 规范:
```
{文档类型}_{语言}_{来源}_{页码}.jpg
```
例如:`book_en_A.Concise.Introduction.to.Linear.Algebra_page_065.jpg`
## 评测
Wild-OmniDocBench 使用与 [OmniDocBench](https://github.com/opendatalab/OmniDocBench) 相同的标注格式和评测协议。评测步骤:
1. **获取标注和评测脚本**:从 OmniDocBench 官方仓库获取:
```
https://github.com/opendatalab/OmniDocBench
```
2. **替换图片源**:将图片替换为 Wild-OmniDocBench 的图片(来自 `wild_omnidocbench.zip`)。
3. **运行评测**:按照 OmniDocBench 协议进行评测。评测指标包括:
- **Overall Score**(综合得分 ↑)
- **Text Edit Distance**(文本编辑距离 ↓)
- **Formula CDM**(公式准确率 ↑)
- **Table TEDS**(表格结构准确率 ↑)
- **Reading Order Edit Distance**(阅读顺序编辑距离 ↓)
## 主要结果
从 OmniDocBench 到 Wild-OmniDocBench 的性能下降(来自 DocHumming 论文):
| 模型 | 类型 | Overall(原始) | Overall(Wild) | 下降幅度 |
|------|------|:-:|:-:|:-:|
| DocHumming (1B) | 端到端 | 93.75 | 87.03 | −6.72 |
| dots.ocr (3B) | 端到端 | 88.41 | 78.01 | −10.40 |
| Qwen3-VL (235B) | 通用 | 89.15 | 79.69 | −9.46 |
| MinerU2.5 (1.2B) | 级联 | 90.67 | 70.91 | −19.76 |
| PaddleOCR-VL (0.9B) | 级联 | 91.93 | 72.19 | −19.74 |
在真实拍摄条件下,端到端模型的性能下降显著小于级联流水线方法。
## 引用
```bibtex
@misc{li2026towardsrealworlddocument,
title={Towards Real-World Document Parsing via Realistic Scene Synthesis and Document-Aware Training},
author={Gengluo Li and Pengyuan Lyu and Chengquan Zhang and Huawen Shen and Liang Wu and Xingyu Wan and Gangyan Zeng and Han Hu and Can Ma and Yu Zhou},
year={2026},
journal={arXiv preprint arXiv:2603.23885},
url={https://arxiv.org/abs/2603.23885},
}
```
## 致谢
Wild-OmniDocBench 基于 [OmniDocBench](https://github.com/opendatalab/OmniDocBench) 构建。感谢 OmniDocBench 团队提供的原始标注和评测框架。
## 许可
本基准仅供**学术研究**使用。