OmniOCR: Algemene OCR voor Talen van Etnische Minderheden
OmniOCR: Generalist OCR for Ethnic Minority Languages
February 24, 2026
Auteurs: Bonan Liu, Zeyu Zhang, Bingbing Meng, Han Wang, Hanshuo Zhang, Chengping Wang, Daji Ergu, Ying Cai
cs.AI
Samenvatting
Optische tekenherkenning (OCR) heeft een snelle vooruitgang geboekt dankzij deep learning en multimodale modellen, maar de meeste methoden richten zich op goed ondersteunde schriften zoals Latijns en Chinees. Etnische minderheidstalen blijven onderbelicht vanwege complexe schriftsystemen, schaarse annotaties en diverse historische en moderne vormen, wat generalisatie in low-resource of zero-shot situaties uitdagend maakt. Om deze problemen aan te pakken, presenteren we OmniOCR, een universeel framework voor etnische minderheidsschriften. OmniOCR introduceert Dynamic Low-Rank Adaptation (Dynamic LoRA) om modelcapaciteit over lagen en schriften toe te wijzen, waardoor effectieve aanpassing mogelijk is terwijl kennis behouden blijft. Een sparsity-regularisatie snoeit overbodige updates en zorgt voor compacte en efficiënte aanpassing zonder extra inferentiekosten. Evaluaties op TibetanMNIST, Shui, oud Yi en Dongba tonen aan dat OmniOCR zero-shot foundationmodellen en standaard post-training overtreft, met state-of-the-art nauwkeurigheid en superieure parameter efficiëntie. Vergeleken met de state-of-the-art basismodellen verbetert het de nauwkeurigheid met 39%-66% op deze vier datasets. Code: https://github.com/AIGeeksGroup/OmniOCR.
English
Optical character recognition (OCR) has advanced rapidly with deep learning and multimodal models, yet most methods focus on well-resourced scripts such as Latin and Chinese. Ethnic minority languages remain underexplored due to complex writing systems, scarce annotations, and diverse historical and modern forms, making generalization in low-resource or zero-shot settings challenging. To address these challenges, we present OmniOCR, a universal framework for ethnic minority scripts. OmniOCR introduces Dynamic Low-Rank Adaptation (Dynamic LoRA) to allocate model capacity across layers and scripts, enabling effective adaptation while preserving knowledge.A sparsity regularization prunes redundant updates, ensuring compact and efficient adaptation without extra inference cost. Evaluations on TibetanMNIST, Shui, ancient Yi, and Dongba show that OmniOCR outperforms zero-shot foundation models and standard post training, achieving state-of-the-art accuracy with superior parameter efficiency, and compared with the state-of-the-art baseline models, it improves accuracy by 39%-66% on these four datasets. Code: https://github.com/AIGeeksGroup/OmniOCR.