ChatPaper.aiChatPaper

Van Pixels naar Woorden – Op Weg naar Inheemse Visie-Taal Primitieven op Schaal

From Pixels to Words -- Towards Native Vision-Language Primitives at Scale

October 16, 2025
Auteurs: Haiwen Diao, Mingxuan Li, Silei Wu, Linjun Dai, Xiaohua Wang, Hanming Deng, Lewei Lu, Dahua Lin, Ziwei Liu
cs.AI

Samenvatting

Het bouwwerk van native Vision-Language Models (VLMs) is naar voren gekomen als een opkomende uitdager voor de typische modulaire VLMs, gevormd door evoluerende modelarchitecturen en trainingsparadigma's. Toch werpen twee blijvende vraagstukken een schaduw over de brede verkenning en promotie ervan: (-) Welke fundamentele beperkingen onderscheiden native VLMs van modulaire, en in hoeverre kunnen deze barrières worden overwonnen? (-) Hoe kan onderzoek naar native VLMs toegankelijker en gedemocratiseerd worden, waardoor de vooruitgang in het veld wordt versneld? In dit artikel verhelderen we deze uitdagingen en schetsen we richtlijnen voor het construeren van native VLMs. Specifiek zou een native VLM-primitief moeten: (i) effectief pixel- en woordrepresentaties uitlijnen binnen een gedeelde semantische ruimte; (ii) naadloos de sterke punten van voorheen gescheiden visie- en taalmodules integreren; (iii) inherent verschillende cross-modale eigenschappen belichamen die een verenigde visie-taalcodering, -uitlijning en -redenering ondersteunen. Daarom lanceren we NEO, een nieuwe familie van native VLMs gebouwd vanuit eerste principes, die in staat is om topmodulaire tegenhangers te evenaren in diverse real-world scenario's. Met slechts 390 miljoen beeld-tekstvoorbeelden ontwikkelt NEO efficiënt visuele perceptie vanaf nul, terwijl visie-taalconflicten worden gemitigeerd binnen een dicht en monolithisch model, vervaardigd vanuit onze uitgebreide primitieven. We positioneren NEO als een hoeksteen voor schaalbare en krachtige native VLMs, gepaard met een rijke set herbruikbare componenten die een kosteneffectief en uitbreidbaar ecosysteem bevorderen. Onze code en modellen zijn publiekelijk beschikbaar op: https://github.com/EvolvingLMMs-Lab/NEO.
English
The edifice of native Vision-Language Models (VLMs) has emerged as a rising contender to typical modular VLMs, shaped by evolving model architectures and training paradigms. Yet, two lingering clouds cast shadows over its widespread exploration and promotion: (-) What fundamental constraints set native VLMs apart from modular ones, and to what extent can these barriers be overcome? (-) How to make research in native VLMs more accessible and democratized, thereby accelerating progress in the field. In this paper, we clarify these challenges and outline guiding principles for constructing native VLMs. Specifically, one native VLM primitive should: (i) effectively align pixel and word representations within a shared semantic space; (ii) seamlessly integrate the strengths of formerly separate vision and language modules; (iii) inherently embody various cross-modal properties that support unified vision-language encoding, aligning, and reasoning. Hence, we launch NEO, a novel family of native VLMs built from first principles, capable of rivaling top-tier modular counterparts across diverse real-world scenarios. With only 390M image-text examples, NEO efficiently develops visual perception from scratch while mitigating vision-language conflicts inside a dense and monolithic model crafted from our elaborate primitives. We position NEO as a cornerstone for scalable and powerful native VLMs, paired with a rich set of reusable components that foster a cost-effective and extensible ecosystem. Our code and models are publicly available at: https://github.com/EvolvingLMMs-Lab/NEO.
PDF632October 17, 2025