OmniFusion 技術レポートOmniFusion Technical Report
昨年、マルチモーダルアーキテクチャはAIベースのアプローチとソリューションにおいて革命をもたらし、大規模言語モデル(LLM)の能力を拡張しました。我々は、事前学習済みのLLMと視覚モダリティ用のアダプターに基づくOmniFusionモデルを提案します。テキストと視覚データのより良い結合を実現するため、いくつかのアーキテクチャ設計原則を評価・比較しました:MLPおよびトランスフォーマーアダプター、様々なCLIP ViTベースのエンコーダー(SigLIP、InternVITなど)、それらの融合アプローチ、画像エンコーディング方法(画像全体またはタイルエンコーディング)、そして2つの7B LLM(独自モデルとオープンソースのMistral)です。8つの視覚言語ベンチマークでの実験により、オープンソースのLLaVAのようなソリューションと比較して、様々なVQAタスクにおいて最良のOmniFusion設定が最高スコアを達成しました:VizWiz、Pope、MM-Vet、ScienceQA、MMBench、TextVQA、VQAv2、MMMU。また、OmniFusionが家事、観光、文化、医療、手書きおよびスキャンされた数式認識など、様々な分野で詳細な回答を提供する多様な状況を提案します。MistralベースのOmniFusionモデルは、重み、トレーニング、推論スクリプトが利用可能なオープンソースソリューションであり、https://github.com/AIRI-Institute/OmniFusion で公開されています。