Wild_OmniDocBench / README_ZH.md
VirtualLUO's picture
Upload README_ZH.md with huggingface_hub
99ce42a verified

Wild-OmniDocBench

面向真实场景的文档解析鲁棒性评测基准

English论文GitHubHuggingFace

概述

Wild-OmniDocBench 是一个用于评估文档解析模型在真实拍摄条件下鲁棒性的基准测试。它基于 OmniDocBench,通过受控的物理模拟将扫描/数字文档转换为真实拍摄图像,包括打印、物理变形以及在多种光照条件下拍摄。

与依赖清晰扫描或数字原生页面的标准基准不同,Wild-OmniDocBench 引入了真实场景下的各类干扰:

  • 几何畸变(透视变换、弯曲、褶皱)
  • 光照变化(定向光、不均匀光、低光环境)
  • 屏幕翻拍伪影(摩尔纹、反光)
  • 环境干扰(背景叠加、阴影)

说明: 当前发布的 Wild-OmniDocBench 对应 OmniDocBench v1.5。我们正在处理 v1.6 版本的扩充部分,将在后续开源。

Wild-OmniDocBench 构建流程

基准统计

项目 详情
图片总数 1,350
来源 OmniDocBench 的真实拍摄变体
文档类型 书籍、教材、论文、PPT、报纸、笔记、考试、杂志、财报等
采集方式 (i) 打印 + 物理变形 + 拍照;(ii) 屏幕显示 + 翻拍
标注 继承自 OmniDocBench(完整结构和阅读顺序标注)

数据格式

目录结构

Wild_OmniDocBench/
├── README.md                   # 英文说明
├── README_ZH.md                # 中文说明
├── wild_omnidocbench.zip       # 基准图片(1,350 张 JPG)
└── assets/
    └── overview.png            # 概览图

图片

解压 wild_omnidocbench.zip 后,图片命名遵循 OmniDocBench 规范:

{文档类型}_{语言}_{来源}_{页码}.jpg

例如:book_en_A.Concise.Introduction.to.Linear.Algebra_page_065.jpg

评测

Wild-OmniDocBench 使用与 OmniDocBench 相同的标注格式和评测协议。评测步骤:

  1. 获取标注和评测脚本:从 OmniDocBench 官方仓库获取:

    https://github.com/opendatalab/OmniDocBench
    
  2. 替换图片源:将图片替换为 Wild-OmniDocBench 的图片(来自 wild_omnidocbench.zip)。

  3. 运行评测:按照 OmniDocBench 协议进行评测。评测指标包括:

    • Overall Score(综合得分 ↑)
    • Text Edit Distance(文本编辑距离 ↓)
    • Formula CDM(公式准确率 ↑)
    • Table TEDS(表格结构准确率 ↑)
    • Reading Order Edit Distance(阅读顺序编辑距离 ↓)

主要结果

从 OmniDocBench 到 Wild-OmniDocBench 的性能下降(来自 DocHumming 论文):

模型 类型 Overall(原始) Overall(Wild) 下降幅度
DocHumming (1B) 端到端 93.75 87.03 −6.72
dots.ocr (3B) 端到端 88.41 78.01 −10.40
Qwen3-VL (235B) 通用 89.15 79.69 −9.46
MinerU2.5 (1.2B) 级联 90.67 70.91 −19.76
PaddleOCR-VL (0.9B) 级联 91.93 72.19 −19.74

在真实拍摄条件下,端到端模型的性能下降显著小于级联流水线方法。

引用

@misc{li2026towardsrealworlddocument,
      title={Towards Real-World Document Parsing via Realistic Scene Synthesis and Document-Aware Training},
      author={Gengluo Li and Pengyuan Lyu and Chengquan Zhang and Huawen Shen and Liang Wu and Xingyu Wan and Gangyan Zeng and Han Hu and Can Ma and Yu Zhou},
      year={2026},
      journal={arXiv preprint arXiv:2603.23885},
      url={https://arxiv.org/abs/2603.23885},
}

致谢

Wild-OmniDocBench 基于 OmniDocBench 构建。感谢 OmniDocBench 团队提供的原始标注和评测框架。

许可

本基准仅供学术研究使用。