ChatPaper.aiChatPaper

Эффективный парсинг документов с помощью параллельного предсказания токенов

Efficient Document Parsing via Parallel Token Prediction

March 16, 2026
Авторы: Lei Li, Ze Zhao, Meng Li, Zhongwang Lun, Yi Yuan, Xingjing Lu, Zheng Wei, Jiang Bian, Zang Li
cs.AI

Аннотация

Парсинг документов, как фундаментальная, но крайне важная задача компьютерного зрения, переживает революцию благодаря моделям «визуальный язык» (VLM). Однако присущее VLM авторегрессивное декодирование создает значительное узкое место, серьезно ограничивая скорость парсинга. В данной статье мы предлагаем Parallel-Token Prediction (PTP) — подключаемый, модельно-агностический и простой, но эффективный метод, который позволяет VLM генерировать несколько последующих токенов параллельно с улучшенной эффективностью выборки. В частности, мы добавляем в входную последовательность некоторые обучаемые токены и разрабатываем соответствующие учебные цели, чтобы наделить модель возможностями параллельного декодирования для парсинга документов. Кроме того, для обеспечения эффективного обучения мы создаем комплексный конвейер генерации данных, который эффективно производит масштабные высококачественные учебные данные для парсинга документов, предназначенные для VLM. Многочисленные эксперименты на OmniDocBench и olmOCR-bench демонстрируют, что наш метод не только значительно повышает скорость декодирования (в 1.6–2.2 раза), но и снижает галлюцинации модели и демонстрирует сильные способности к обобщению.
English
Document parsing, as a fundamental yet crucial vision task, is being revolutionized by vision-language models (VLMs). However, the autoregressive (AR) decoding inherent to VLMs creates a significant bottleneck, severely limiting parsing speed. In this paper, we propose Parallel-Token Prediction (PTP), a plugable, model-agnostic and simple-yet-effective method that enables VLMs to generate multiple future tokens in parallel with improved sample efficiency. Specifically, we insert some learnable tokens into the input sequence and design corresponding training objectives to equip the model with parallel decoding capabilities for document parsing. Furthermore, to support effective training, we develop a comprehensive data generation pipeline that efficiently produces large-scale, high-quality document parsing training data for VLMs. Extensive experiments on OmniDocBench and olmOCR-bench demonstrate that our method not only significantly improves decoding speed (1.6x-2.2x) but also reduces model hallucinations and exhibits strong generalization abilities.
PDF32March 18, 2026