ILLUME: Iluminando tus LLM para Ver, Dibujar y Auto-Mejorar

ILLUME: Illuminating Your LLMs to See, Draw, and Self-Enhance

December 9, 2024
Autores: Chunwei Wang, Guansong Lu, Junwei Yang, Runhui Huang, Jianhua Han, Lu Hou, Wei Zhang, Hang Xu
cs.AI

Resumen

En este documento, presentamos ILLUME, un modelo de lenguaje grande multimodal unificado (MLLM) que integra de manera fluida capacidades de comprensión y generación multimodal dentro de un solo modelo de lenguaje grande a través de una formulación unificada de predicción del siguiente token. Para abordar el gran tamaño del conjunto de datos típicamente requerido para la alineación imagen-texto, proponemos mejorar la eficiencia de los datos a través del diseño de un tokenizador de visión que incorpora información semántica y un procedimiento de entrenamiento progresivo de múltiples etapas. Este enfoque reduce el tamaño del conjunto de datos a solo 15M para el preentrenamiento, más de cuatro veces menos de lo que se necesita típicamente, logrando un rendimiento competitivo o incluso superior con respecto a los MLLMs unificados existentes, como Janus. Además, para promover la mejora sinérgica entre las capacidades de comprensión y generación, que ha sido poco explorada en trabajos anteriores, presentamos un novedoso esquema de alineación multimodal auto-mejorante. Este esquema supervisa al MLLM para autoevaluar la consistencia entre las descripciones de texto y las imágenes auto-generadas, facilitando que el modelo interprete las imágenes de manera más precisa y evite predicciones irreales e incorrectas causadas por desalineaciones en la generación de imágenes. Basándonos en experimentos extensos, nuestro ILLUME propuesto destaca y compite con los MLLMs unificados de última generación y modelos especializados en diversos puntos de referencia para la comprensión, generación y edición multimodal.
English
In this paper, we introduce ILLUME, a unified multimodal large language model (MLLM) that seamlessly integrates multimodal understanding and generation capabilities within a single large language model through a unified next-token prediction formulation. To address the large dataset size typically required for image-text alignment, we propose to enhance data efficiency through the design of a vision tokenizer that incorporates semantic information and a progressive multi-stage training procedure. This approach reduces the dataset size to just 15M for pretraining -- over four times fewer than what is typically needed -- while achieving competitive or even superior performance with existing unified MLLMs, such as Janus. Additionally, to promote synergistic enhancement between understanding and generation capabilities, which is under-explored in previous works, we introduce a novel self-enhancing multimodal alignment scheme. This scheme supervises the MLLM to self-assess the consistency between text descriptions and self-generated images, facilitating the model to interpret images more accurately and avoid unrealistic and incorrect predictions caused by misalignment in image generation. Based on extensive experiments, our proposed ILLUME stands out and competes with state-of-the-art unified MLLMs and specialized models across various benchmarks for multimodal understanding, generation, and editing.

Summary

AI-Generated Summary

PDF112December 11, 2024