OCRBench-v2 是由华中科技大学联合华南理工大学、字节跳动等机构于 2025 年发布的一个多模态大型模型光学字符识别(OCR)的评估基准,相关论文成果为「OCRBench v2: An Improved Benchmark for Evaluating Large Multimodal Models on Visual Text Localization and Reasoning」,旨在评估大型多模态模型(LMM)在不同文本相关任务中的 OCR 能力。
该数据集是在 OCRBench 基础上的大规模升级版本,包含 10,000 条经人工验证的中英文问答对作为公开测试集,并额外提供一个私有测试集,包含 1,500 张人工标注的富文本图像,图像来源多样,包括纸质书籍、电子书、扫描文档以及网页内容。数据涵盖 31 个典型文本场景,覆盖 23 个子任务,归类于 8 个核心 OCR 功能(文本识别、文本检测、文本引用定位、关系抽取、元素解析、数学运算、视觉-文本理解、知识推理)。