olmOCR 2: Награды за модульные тесты для OCR документов
olmOCR 2: Unit Test Rewards for Document OCR
October 22, 2025
Авторы: Jake Poznanski, Luca Soldaini, Kyle Lo
cs.AI
Аннотация
Мы представляем olmOCR 2 — новейшую разработку в нашем семействе мощных систем оптического распознавания текста (OCR), предназначенных для преобразования оцифрованных печатных документов, таких как PDF, в чистый, естественно структурированный простой текст. olmOCR 2 работает на основе olmOCR-2-7B-1025 — специализированной 7-миллиардной визуально-языковой модели (VLM), обученной с использованием обучения с подкреплением с проверяемыми наградами (RLVR), где наши награды представляют собой разнообразный набор бинарных модульных тестов. Для масштабирования создания модульных тестов мы разработали конвейер генерации синтетических документов с разнообразными и сложными макетами, известным исходным HTML-кодом и извлеченными тестовыми случаями. Мы демонстрируем, что обучение с подкреплением на этих тестовых случаях приводит к передовым результатам на нашем англоязычном OCR-бенчмарке olmOCR-Bench, с наибольшим улучшением в преобразовании математических формул, разборе таблиц и обработке многоколоночных макетов по сравнению с предыдущими версиями. Мы публикуем нашу модель, данные и код под разрешительными открытыми лицензиями.
English
We present olmOCR 2, the latest in our family of powerful OCR systems for
converting digitized print documents, like PDFs, into clean, naturally ordered
plain text. olmOCR 2 is powered by olmOCR-2-7B-1025, a specialized, 7B vision
language model (VLM) trained using reinforcement learning with verifiable
rewards (RLVR), where our rewards are a diverse set of binary unit tests. To
scale unit test creation, we develop a pipeline for generating synthetic
documents with diverse and challenging layouts, known ground-truth HTML source
code, and extracted test cases. We show that RL training on these test cases
results in state-of-the-art performance on olmOCR-Bench, our English-language
OCR benchmark, with the largest improvements in math formula conversion, table
parsing, and multi-column layouts compared to previous versions. We release our
model, data and code under permissive open licenses.