Chameleon: Modelos Fundacionales de Fusión Temprana MultimodalChameleon: Mixed-Modal Early-Fusion Foundation Models
Presentamos Chameleon, una familia de modelos mixtos basados en tokens con fusión temprana, capaces de comprender y generar imágenes y texto en cualquier secuencia arbitraria. Describimos un enfoque de entrenamiento estable desde el inicio, una receta de alineación y una parametrización arquitectónica diseñada específicamente para el entorno mixto basado en tokens con fusión temprana. Los modelos se evalúan en una amplia gama de tareas, incluyendo respuesta visual a preguntas, generación de descripciones de imágenes, generación de texto, generación de imágenes y generación mixta de largo formato. Chameleon demuestra capacidades amplias y generales, incluyendo un rendimiento de vanguardia en tareas de generación de descripciones de imágenes, supera a Llama-2 en tareas exclusivas de texto mientras compite con modelos como Mixtral 8x7B y Gemini-Pro, y realiza generación de imágenes no trivial, todo en un solo modelo. Además, iguala o supera el rendimiento de modelos mucho más grandes, como Gemini Pro y GPT-4V, según evaluaciones humanas en una nueva prueba de generación mixta de largo formato, donde el prompt o las salidas contienen secuencias mixtas de imágenes y texto. Chameleon representa un avance significativo en el modelado unificado de documentos multimodales completos.