| # Wild-OmniDocBench | |
| **面向真实场景的文档解析鲁棒性评测基准** | |
| <p align="center"> | |
| <a href="https://huggingface.co/datasets/VirtualLUO/Wild_OmniDocBench">English</a> • | |
| <a href="https://arxiv.org/abs/2603.23885">论文</a> • | |
| <a href="https://github.com/VirtualLUOUCAS/Wild_OmniDocBench">GitHub</a> • | |
| <a href="https://huggingface.co/datasets/VirtualLUO/Wild_OmniDocBench">HuggingFace</a> | |
| </p> | |
| ## 概述 | |
| **Wild-OmniDocBench** 是一个用于评估文档解析模型在真实拍摄条件下鲁棒性的基准测试。它基于 [OmniDocBench](https://github.com/opendatalab/OmniDocBench),通过受控的物理模拟将扫描/数字文档转换为真实拍摄图像,包括打印、物理变形以及在多种光照条件下拍摄。 | |
| 与依赖清晰扫描或数字原生页面的标准基准不同,Wild-OmniDocBench 引入了真实场景下的各类干扰: | |
| - **几何畸变**(透视变换、弯曲、褶皱) | |
| - **光照变化**(定向光、不均匀光、低光环境) | |
| - **屏幕翻拍伪影**(摩尔纹、反光) | |
| - **环境干扰**(背景叠加、阴影) | |
| > **说明:** 当前发布的 Wild-OmniDocBench 对应 **OmniDocBench v1.5**。我们正在处理 v1.6 版本的扩充部分,将在后续开源。 | |
| <p align="center"> | |
| <img src="assets/overview.png" width="90%" alt="Wild-OmniDocBench 构建流程"> | |
| </p> | |
| ## 基准统计 | |
| | 项目 | 详情 | | |
| |------|------| | |
| | 图片总数 | 1,350 | | |
| | 来源 | OmniDocBench 的真实拍摄变体 | | |
| | 文档类型 | 书籍、教材、论文、PPT、报纸、笔记、考试、杂志、财报等 | | |
| | 采集方式 | (i) 打印 + 物理变形 + 拍照;(ii) 屏幕显示 + 翻拍 | | |
| | 标注 | 继承自 OmniDocBench(完整结构和阅读顺序标注) | | |
| ## 数据格式 | |
| ### 目录结构 | |
| ``` | |
| Wild_OmniDocBench/ | |
| ├── README.md # 英文说明 | |
| ├── README_ZH.md # 中文说明 | |
| ├── wild_omnidocbench.zip # 基准图片(1,350 张 JPG) | |
| └── assets/ | |
| └── overview.png # 概览图 | |
| ``` | |
| ### 图片 | |
| 解压 `wild_omnidocbench.zip` 后,图片命名遵循 OmniDocBench 规范: | |
| ``` | |
| {文档类型}_{语言}_{来源}_{页码}.jpg | |
| ``` | |
| 例如:`book_en_A.Concise.Introduction.to.Linear.Algebra_page_065.jpg` | |
| ## 评测 | |
| Wild-OmniDocBench 使用与 [OmniDocBench](https://github.com/opendatalab/OmniDocBench) 相同的标注格式和评测协议。评测步骤: | |
| 1. **获取标注和评测脚本**:从 OmniDocBench 官方仓库获取: | |
| ``` | |
| https://github.com/opendatalab/OmniDocBench | |
| ``` | |
| 2. **替换图片源**:将图片替换为 Wild-OmniDocBench 的图片(来自 `wild_omnidocbench.zip`)。 | |
| 3. **运行评测**:按照 OmniDocBench 协议进行评测。评测指标包括: | |
| - **Overall Score**(综合得分 ↑) | |
| - **Text Edit Distance**(文本编辑距离 ↓) | |
| - **Formula CDM**(公式准确率 ↑) | |
| - **Table TEDS**(表格结构准确率 ↑) | |
| - **Reading Order Edit Distance**(阅读顺序编辑距离 ↓) | |
| ## 主要结果 | |
| 从 OmniDocBench 到 Wild-OmniDocBench 的性能下降(来自 DocHumming 论文): | |
| | 模型 | 类型 | Overall(原始) | Overall(Wild) | 下降幅度 | | |
| |------|------|:-:|:-:|:-:| | |
| | DocHumming (1B) | 端到端 | 93.75 | 87.03 | −6.72 | | |
| | dots.ocr (3B) | 端到端 | 88.41 | 78.01 | −10.40 | | |
| | Qwen3-VL (235B) | 通用 | 89.15 | 79.69 | −9.46 | | |
| | MinerU2.5 (1.2B) | 级联 | 90.67 | 70.91 | −19.76 | | |
| | PaddleOCR-VL (0.9B) | 级联 | 91.93 | 72.19 | −19.74 | | |
| 在真实拍摄条件下,端到端模型的性能下降显著小于级联流水线方法。 | |
| ## 引用 | |
| ```bibtex | |
| @misc{li2026towardsrealworlddocument, | |
| title={Towards Real-World Document Parsing via Realistic Scene Synthesis and Document-Aware Training}, | |
| author={Gengluo Li and Pengyuan Lyu and Chengquan Zhang and Huawen Shen and Liang Wu and Xingyu Wan and Gangyan Zeng and Han Hu and Can Ma and Yu Zhou}, | |
| year={2026}, | |
| journal={arXiv preprint arXiv:2603.23885}, | |
| url={https://arxiv.org/abs/2603.23885}, | |
| } | |
| ``` | |
| ## 致谢 | |
| Wild-OmniDocBench 基于 [OmniDocBench](https://github.com/opendatalab/OmniDocBench) 构建。感谢 OmniDocBench 团队提供的原始标注和评测框架。 | |
| ## 许可 | |
| 本基准仅供**学术研究**使用。 | |