VITA: Hacia un LLM multimodal omni interactivo de código abierto.VITA: Towards Open-Source Interactive Omni Multimodal LLM
Las notables capacidades multimodales y la experiencia interactiva de GPT-4o subrayan su necesidad en aplicaciones prácticas, sin embargo, los modelos de código abierto rara vez destacan en ambas áreas. En este documento, presentamos VITA, el primer Modelo de Lenguaje Multimodal Grande (MLLM, por sus siglas en inglés) de código abierto capaz de procesar y analizar simultáneamente modalidades de Video, Imagen, Texto y Audio, y al mismo tiempo cuenta con una avanzada experiencia interactiva multimodal. Comenzando desde Mixtral 8x7B como base lingüística, ampliamos su vocabulario chino seguido de un ajuste de instrucciones bilingüe. Además, dotamos al modelo de lenguaje con capacidades visuales y de audio a través del aprendizaje multitarea en dos etapas de alineación multimodal y ajuste de instrucciones. VITA demuestra sólidas capacidades fundamentales de comprensión multilingüe, visual y auditiva, como lo demuestra su sólido rendimiento en una variedad de pruebas tanto unimodales como multimodales. Más allá de las capacidades fundamentales, hemos avanzado considerablemente en mejorar la experiencia natural de interacción humano-computadora multimodal. Hasta donde sabemos, somos los primeros en explotar la interacción no despertadora y la interrupción de audio en MLLM. VITA es el primer paso para que la comunidad de código abierto explore la integración fluida de comprensión e interacción multimodal. Aunque aún queda mucho trabajo por hacer en VITA para acercarse a sus contrapartes de código cerrado, esperamos que su papel como pionero pueda servir como piedra angular para investigaciones posteriores. Página del Proyecto: https://vita-home.github.io.