ChatPaper.aiChatPaper

Kosmos-2: Fundamentación de Modelos de Lenguaje Multimodales de Gran Escala en el Mundo

Kosmos-2: Grounding Multimodal Large Language Models to the World

June 26, 2023
Autores: Zhiliang Peng, Wenhui Wang, Li Dong, Yaru Hao, Shaohan Huang, Shuming Ma, Furu Wei
cs.AI

Resumen

Presentamos Kosmos-2, un Modelo de Lenguaje Grande Multimodal (MLLM, por sus siglas en inglés), que habilita nuevas capacidades para percibir descripciones de objetos (por ejemplo, cuadros delimitadores) y anclar texto al mundo visual. Específicamente, representamos expresiones referenciales como enlaces en Markdown, es decir, ``[texto](cuadros delimitadores)'', donde las descripciones de objetos son secuencias de tokens de ubicación. Junto con corpus multimodales, construimos datos a gran escala de pares imagen-texto anclados (llamados GrIT) para entrenar el modelo. Además de las capacidades existentes de los MLLM (por ejemplo, percibir modalidades generales, seguir instrucciones y realizar aprendizaje en contexto), Kosmos-2 integra la capacidad de anclaje en aplicaciones posteriores. Evaluamos Kosmos-2 en una amplia gama de tareas, incluyendo (i) anclaje multimodal, como la comprensión de expresiones referenciales y el anclaje de frases, (ii) referencia multimodal, como la generación de expresiones referenciales, (iii) tareas de percepción-lenguaje, y (iv) comprensión y generación de lenguaje. Este trabajo sienta las bases para el desarrollo de la Inteligencia Artificial Encarnada y arroja luz sobre la gran convergencia del lenguaje, la percepción multimodal, la acción y el modelado del mundo, lo cual es un paso clave hacia la inteligencia artificial general. Los datos, demostraciones y modelos preentrenados están disponibles en https://aka.ms/kosmos-2.
English
We introduce Kosmos-2, a Multimodal Large Language Model (MLLM), enabling new capabilities of perceiving object descriptions (e.g., bounding boxes) and grounding text to the visual world. Specifically, we represent refer expressions as links in Markdown, i.e., ``[text span](bounding boxes)'', where object descriptions are sequences of location tokens. Together with multimodal corpora, we construct large-scale data of grounded image-text pairs (called GrIT) to train the model. In addition to the existing capabilities of MLLMs (e.g., perceiving general modalities, following instructions, and performing in-context learning), Kosmos-2 integrates the grounding capability into downstream applications. We evaluate Kosmos-2 on a wide range of tasks, including (i) multimodal grounding, such as referring expression comprehension, and phrase grounding, (ii) multimodal referring, such as referring expression generation, (iii) perception-language tasks, and (iv) language understanding and generation. This work lays out the foundation for the development of Embodiment AI and sheds light on the big convergence of language, multimodal perception, action, and world modeling, which is a key step toward artificial general intelligence. Data, demo, and pretrained models are available at https://aka.ms/kosmos-2.
PDF349December 15, 2024