ChatPaper.aiChatPaper

MinerU2.5 : Un modèle vision-langage découplé pour l'analyse efficace de documents haute résolution

MinerU2.5: A Decoupled Vision-Language Model for Efficient High-Resolution Document Parsing

September 26, 2025
papers.authors: Junbo Niu, Zheng Liu, Zhuangcheng Gu, Bin Wang, Linke Ouyang, Zhiyuan Zhao, Tao Chu, Tianyao He, Fan Wu, Qintong Zhang, Zhenjiang Jin, Guang Liang, Rui Zhang, Wenzheng Zhang, Yuan Qu, Zhifei Ren, Yuefeng Sun, Yuanhong Zheng, Dongsheng Ma, Zirui Tang, Boyu Niu, Ziyang Miao, Hejun Dong, Siyi Qian, Junyuan Zhang, Jingzhou Chen, Fangdong Wang, Xiaomeng Zhao, Liqun Wei, Wei Li, Shasha Wang, Ruiliang Xu, Yuanyuan Cao, Lu Chen, Qianqian Wu, Huaiyu Gu, Lindong Lu, Keming Wang, Dechen Lin, Guanlin Shen, Xuanhe Zhou, Linfeng Zhang, Yuhang Zang, Xiaoyi Dong, Jiaqi Wang, Bo Zhang, Lei Bai, Pei Chu, Weijia Li, Jiang Wu, Lijun Wu, Zhenxiang Li, Guangyu Wang, Zhongying Tu, Chao Xu, Kai Chen, Yu Qiao, Bowen Zhou, Dahua Lin, Wentao Zhang, Conghui He
cs.AI

papers.abstract

Nous présentons MinerU2.5, un modèle vision-langage de 1,2 milliard de paramètres pour l'analyse de documents, qui atteint une précision de reconnaissance de pointe tout en conservant une efficacité computationnelle exceptionnelle. Notre approche utilise une stratégie d'analyse en deux étapes, allant du global au local, qui dissocie l'analyse de la structure globale de la reconnaissance du contenu local. Dans la première étape, le modèle effectue une analyse de structure efficace sur des images sous-échantillonnées pour identifier les éléments structurels, évitant ainsi la surcharge computationnelle liée au traitement d'entrées haute résolution. Dans la deuxième étape, guidé par la structure globale, il réalise une reconnaissance ciblée du contenu sur des extraits en résolution native issus de l'image originale, préservant ainsi les détails fins dans les textes denses, les formules complexes et les tableaux. Pour soutenir cette stratégie, nous avons développé un moteur de données complet qui génère des corpus d'entraînement diversifiés et à grande échelle pour le pré-entraînement et le réglage fin. En fin de compte, MinerU2.5 démontre une forte capacité d'analyse de documents, obtenant des performances de pointe sur plusieurs benchmarks, surpassant à la fois les modèles généralistes et spécialisés dans diverses tâches de reconnaissance, tout en maintenant une surcharge computationnelle significativement plus faible.
English
We introduce MinerU2.5, a 1.2B-parameter document parsing vision-language model that achieves state-of-the-art recognition accuracy while maintaining exceptional computational efficiency. Our approach employs a coarse-to-fine, two-stage parsing strategy that decouples global layout analysis from local content recognition. In the first stage, the model performs efficient layout analysis on downsampled images to identify structural elements, circumventing the computational overhead of processing high-resolution inputs. In the second stage, guided by the global layout, it performs targeted content recognition on native-resolution crops extracted from the original image, preserving fine-grained details in dense text, complex formulas, and tables. To support this strategy, we developed a comprehensive data engine that generates diverse, large-scale training corpora for both pretraining and fine-tuning. Ultimately, MinerU2.5 demonstrates strong document parsing ability, achieving state-of-the-art performance on multiple benchmarks, surpassing both general-purpose and domain-specific models across various recognition tasks, while maintaining significantly lower computational overhead.
PDF912September 29, 2025