MinerU2.5: Разделенная модель обработки изображений и текста для эффективного анализа документов с высоким разрешением
MinerU2.5: A Decoupled Vision-Language Model for Efficient High-Resolution Document Parsing
September 26, 2025
Авторы: Junbo Niu, Zheng Liu, Zhuangcheng Gu, Bin Wang, Linke Ouyang, Zhiyuan Zhao, Tao Chu, Tianyao He, Fan Wu, Qintong Zhang, Zhenjiang Jin, Guang Liang, Rui Zhang, Wenzheng Zhang, Yuan Qu, Zhifei Ren, Yuefeng Sun, Yuanhong Zheng, Dongsheng Ma, Zirui Tang, Boyu Niu, Ziyang Miao, Hejun Dong, Siyi Qian, Junyuan Zhang, Jingzhou Chen, Fangdong Wang, Xiaomeng Zhao, Liqun Wei, Wei Li, Shasha Wang, Ruiliang Xu, Yuanyuan Cao, Lu Chen, Qianqian Wu, Huaiyu Gu, Lindong Lu, Keming Wang, Dechen Lin, Guanlin Shen, Xuanhe Zhou, Linfeng Zhang, Yuhang Zang, Xiaoyi Dong, Jiaqi Wang, Bo Zhang, Lei Bai, Pei Chu, Weijia Li, Jiang Wu, Lijun Wu, Zhenxiang Li, Guangyu Wang, Zhongying Tu, Chao Xu, Kai Chen, Yu Qiao, Bowen Zhou, Dahua Lin, Wentao Zhang, Conghui He
cs.AI
Аннотация
Мы представляем MinerU2.5 — модель для анализа документов с 1,2 миллиардами параметров, которая сочетает в себе зрение и язык. Эта модель достигает наивысшей точности распознавания, сохраняя при этом исключительную вычислительную эффективность. Наш подход использует двухэтапную стратегию анализа от общего к частному, разделяя глобальный анализ структуры документа и локальное распознавание содержимого. На первом этапе модель выполняет эффективный анализ структуры на уменьшенных изображениях, чтобы идентифицировать структурные элементы, избегая вычислительных затрат на обработку высококачественных входных данных. На втором этапе, руководствуясь глобальной структурой, модель выполняет целенаправленное распознавание содержимого на фрагментах исходного изображения в исходном разрешении, сохраняя мелкие детали в плотном тексте, сложных формулах и таблицах. Для поддержки этой стратегии мы разработали комплексный механизм генерации данных, который создает разнообразные и масштабные обучающие корпуса как для предварительного обучения, так и для тонкой настройки. В итоге MinerU2.5 демонстрирует высокую способность к анализу документов, достигая наилучших результатов на множестве тестовых наборов, превосходя как универсальные, так и специализированные модели в различных задачах распознавания, при этом сохраняя значительно меньшие вычислительные затраты.
English
We introduce MinerU2.5, a 1.2B-parameter document parsing vision-language
model that achieves state-of-the-art recognition accuracy while maintaining
exceptional computational efficiency. Our approach employs a coarse-to-fine,
two-stage parsing strategy that decouples global layout analysis from local
content recognition. In the first stage, the model performs efficient layout
analysis on downsampled images to identify structural elements, circumventing
the computational overhead of processing high-resolution inputs. In the second
stage, guided by the global layout, it performs targeted content recognition on
native-resolution crops extracted from the original image, preserving
fine-grained details in dense text, complex formulas, and tables. To support
this strategy, we developed a comprehensive data engine that generates diverse,
large-scale training corpora for both pretraining and fine-tuning. Ultimately,
MinerU2.5 demonstrates strong document parsing ability, achieving
state-of-the-art performance on multiple benchmarks, surpassing both
general-purpose and domain-specific models across various recognition tasks,
while maintaining significantly lower computational overhead.