Chamäleon: Gemischt-modalen Früh-Fusions-GrundlagenmodelleChameleon: Mixed-Modal Early-Fusion Foundation Models
Wir präsentieren Chameleon, eine Familie von früh-fusionierten tokenbasierten Mixed-Modal-Modellen, die in der Lage sind, Bilder und Text in beliebiger Sequenz zu verstehen und zu generieren. Wir skizzieren einen stabilen Schulungsansatz von Anfang an, ein Ausrichtungsrezept und eine architektonische Parametrisierung, die speziell für die früh-fusionierte, tokenbasierte, Mixed-Modal-Umgebung entwickelt wurde. Die Modelle werden auf einer umfassenden Palette von Aufgaben evaluiert, einschließlich visueller Fragestellungen, Bildunterschriften, Textgenerierung, Bildgenerierung und Mixed-Modal-Generierung in Langform. Chameleon zeigt breite und allgemeine Fähigkeiten, einschließlich einer Leistung auf dem neuesten Stand der Technik bei Bildunterschriftsaufgaben, übertrifft Llama-2 in reinen Textaufgaben, während es mit Modellen wie Mixtral 8x7B und Gemini-Pro konkurriert, und führt nicht-triviale Bildgenerierung durch, alles in einem einzigen Modell. Es entspricht auch oder übertrifft die Leistung von viel größeren Modellen, einschließlich Gemini Pro und GPT-4V, gemäß menschlicher Bewertungen in einer neuen Bewertung der Langform-Mixed-Modal-Generierung, bei der entweder die Eingabeaufforderung oder die Ausgaben gemischte Sequenzen von Bildern und Text enthalten. Chameleon markiert einen bedeutenden Fortschritt in der vereinheitlichten Modellierung vollständig multimodaler Dokumente.