LLaVaOLMoBitnet1B: ¡LLM ternario se vuelve multimodal!
LLaVaOLMoBitnet1B: Ternary LLM goes Multimodal!
August 23, 2024
Autores: Jainaveen Sundaram, Ravishankar Iyer
cs.AI
Resumen
Los Modelos de Lenguaje Multimodales a Gran Escala (MM-LLMs) han experimentado avances significativos en el último año, demostrando un rendimiento impresionante en diversas tareas. Sin embargo, para democratizar verdaderamente la IA, los modelos deben mostrar capacidades sólidas y ser capaces de funcionar eficientemente en huellas computacionales pequeñas accesibles para la mayoría. Como parte de esta búsqueda, presentamos LLaVaOLMoBitnet1B, el primer LLM Multimodal Ternario capaz de aceptar entradas de Imagen(es)+Texto para producir respuestas textuales coherentes. El modelo se encuentra completamente de código abierto junto con scripts de entrenamiento para fomentar una mayor investigación en este ámbito. Este informe técnico adjunto destaca el proceso de entrenamiento, detalles de evaluación, desafíos asociados con modelos ternarios y oportunidades futuras. Enlace al modelo: https://huggingface.co/IntelLabs/LlavaOLMoBitnet1B
English
Multimodal Large Language Models (MM-LLMs) have seen significant advancements
in the last year, demonstrating impressive performance across tasks. However,
to truly democratize AI, models must exhibit strong capabilities and be able to
run efficiently on small compute footprints accessible by most. Part of this
quest, we introduce LLaVaOLMoBitnet1B - the first Ternary Multimodal LLM
capable of accepting Image(s)+Text inputs to produce coherent textual
responses. The model is fully open-sourced along with training scripts to
encourage further research in this space. This accompanying technical report
highlights the training process, evaluation details, challenges associated with
ternary models and future opportunities. Link to the model:
https://huggingface.co/IntelLabs/LlavaOLMoBitnet1BSummary
AI-Generated Summary