LLaVaOLMoBitnet1B: LLM Ternário se torna Multimodal!
LLaVaOLMoBitnet1B: Ternary LLM goes Multimodal!
August 23, 2024
Autores: Jainaveen Sundaram, Ravishankar Iyer
cs.AI
Resumo
Os Modelos de Linguagem Multimodais de Grande Escala (MM-LLMs) tiveram avanços significativos no último ano, demonstrando um desempenho impressionante em diversas tarefas. No entanto, para verdadeiramente democratizar a IA, os modelos devem apresentar capacidades sólidas e ser capazes de rodar de forma eficiente em recursos computacionais pequenos acessíveis pela maioria. Como parte dessa busca, apresentamos o LLaVaOLMoBitnet1B - o primeiro LLM Multimodal Ternário capaz de aceitar entradas de Imagem(s)+Texto para produzir respostas textuais coerentes. O modelo é totalmente de código aberto juntamente com scripts de treinamento para incentivar pesquisas adicionais nesse espaço. Este relatório técnico acompanhante destaca o processo de treinamento, detalhes de avaliação, desafios associados aos modelos ternários e oportunidades futuras. Link para o modelo: https://huggingface.co/IntelLabs/LlavaOLMoBitnet1B
English
Multimodal Large Language Models (MM-LLMs) have seen significant advancements
in the last year, demonstrating impressive performance across tasks. However,
to truly democratize AI, models must exhibit strong capabilities and be able to
run efficiently on small compute footprints accessible by most. Part of this
quest, we introduce LLaVaOLMoBitnet1B - the first Ternary Multimodal LLM
capable of accepting Image(s)+Text inputs to produce coherent textual
responses. The model is fully open-sourced along with training scripts to
encourage further research in this space. This accompanying technical report
highlights the training process, evaluation details, challenges associated with
ternary models and future opportunities. Link to the model:
https://huggingface.co/IntelLabs/LlavaOLMoBitnet1BSummary
AI-Generated Summary