ChatPaper.aiChatPaper

Technisch Rapport OmniFusion

OmniFusion Technical Report

April 9, 2024
Auteurs: Elizaveta Goncharova, Anton Razzhigaev, Matvey Mikhalchuk, Maxim Kurkin, Irina Abdullaeva, Matvey Skripkin, Ivan Oseledets, Denis Dimitrov, Andrey Kuznetsov
cs.AI

Samenvatting

Vorig jaar hebben multimodale architecturen een revolutie teweeggebracht in AI-gebaseerde benaderingen en oplossingen, waarbij de mogelijkheden van grote taalmmodellen (LLM) werden uitgebreid. Wij stellen een OmniFusion-model voor, gebaseerd op een vooraf getraind LLM en adapters voor de visuele modaliteit. We hebben verschillende architectuurontwerpprincipes geëvalueerd en vergeleken voor een betere koppeling van tekst- en visuele gegevens: MLP- en transformer-adapters, diverse CLIP ViT-gebaseerde encoders (SigLIP, InternVIT, etc.), hun fusiebenadering, de methode voor beeldcodering (gehele afbeelding of tegels coderen) en twee 7B LLM's (het propriëtaire model en het open-source Mistral). Experimenten op 8 visueel-taalkundige benchmarks tonen de hoogste score voor de beste OmniFusion-opstelling in termen van verschillende VQA-taken in vergelijking met open-source LLaVA-achtige oplossingen: VizWiz, Pope, MM-Vet, ScienceQA, MMBench, TextVQA, VQAv2, MMMU. We stellen ook een verscheidenheid aan situaties voor waarin OmniFusion zeer gedetailleerde antwoorden biedt in verschillende domeinen: huishouden, sightseeing, cultuur, geneeskunde, herkenning van handgeschreven en gescande vergelijkingen, etc. Het Mistral-gebaseerde OmniFusion-model is een open-source oplossing met gewichten, trainings- en inferentiescripts beschikbaar op https://github.com/AIRI-Institute/OmniFusion.
English
Last year, multimodal architectures served up a revolution in AI-based approaches and solutions, extending the capabilities of large language models (LLM). We propose an OmniFusion model based on a pretrained LLM and adapters for visual modality. We evaluated and compared several architecture design principles for better text and visual data coupling: MLP and transformer adapters, various CLIP ViT-based encoders (SigLIP, InternVIT, etc.), and their fusing approach, image encoding method (whole image or tiles encoding) and two 7B LLMs (the proprietary one and open-source Mistral). Experiments on 8 visual-language benchmarks show the top score for the best OmniFusion setup in terms of different VQA tasks in comparison with open-source LLaVA-like solutions: VizWiz, Pope, MM-Vet, ScienceQA, MMBench, TextVQA, VQAv2, MMMU. We also propose a variety of situations, where OmniFusion provides highly-detailed answers in different domains: housekeeping, sightseeing, culture, medicine, handwritten and scanned equations recognition, etc. Mistral-based OmniFusion model is an open-source solution with weights, training and inference scripts available at https://github.com/AIRI-Institute/OmniFusion.
PDF7710December 15, 2024