ChatPaper.aiChatPaper

Tiny LVLM-eHub : Premières expérimentations multimodales avec Bard

Tiny LVLM-eHub: Early Multimodal Experiments with Bard

August 7, 2023
papers.authors: Wenqi Shao, Yutao Hu, Peng Gao, Meng Lei, Kaipeng Zhang, Fanqing Meng, Peng Xu, Siyuan Huang, Hongsheng Li, Yu Qiao, Ping Luo
cs.AI

papers.abstract

Les récents progrès des modèles de vision et de langage à grande échelle (LVLMs) ont démontré des avancées significatives dans la résolution de tâches multimodales complexes. Parmi ces développements de pointe, Bard de Google se distingue par ses remarquables capacités multimodales, favorisant une compréhension et un raisonnement approfondis à travers divers domaines. Ce travail présente une évaluation précoce et holistique des capacités multimodales des LVLMs, en mettant particulièrement l'accent sur Bard, en proposant une variante légère de LVLM-eHub, nommée Tiny LVLM-eHub. Par rapport à la version standard, Tiny LVLM-eHub possède plusieurs propriétés attrayantes. Premièrement, elle offre une évaluation systématique de six catégories de capacités multimodales, incluant la perception visuelle, l'acquisition de connaissances visuelles, le raisonnement visuel, le bon sens visuel, l'hallucination d'objets et l'intelligence incarnée, à travers l'évaluation quantitative de 42 benchmarks visuels standards liés au texte. Deuxièmement, elle réalise une analyse approfondie des prédictions des LVLMs en utilisant l'évaluation d'ensemble ChatGPT (CEE), ce qui conduit à une évaluation robuste et précise et montre une meilleure concordance avec l'évaluation humaine par rapport à l'approche de correspondance de mots. Troisièmement, elle comprend seulement 2,1K paires image-texte, facilitant ainsi l'utilisation pour les praticiens afin d'évaluer leurs propres LVLMs hors ligne. À travers une analyse expérimentale approfondie, cette étude démontre que Bard surpasse les précédents LVLMs dans la plupart des capacités multimodales, à l'exception de l'hallucination d'objets, à laquelle Bard reste sensible. Tiny LVLM-eHub sert d'évaluation de référence pour divers LVLMs et encourage des stratégies innovantes visant à faire progresser les techniques multimodales. Notre projet est disponible publiquement à l'adresse https://github.com/OpenGVLab/Multi-Modality-Arena.
English
Recent advancements in Large Vision-Language Models (LVLMs) have demonstrated significant progress in tackling complex multimodal tasks. Among these cutting-edge developments, Google's Bard stands out for its remarkable multimodal capabilities, promoting comprehensive comprehension and reasoning across various domains. This work presents an early and holistic evaluation of LVLMs' multimodal abilities, with a particular focus on Bard, by proposing a lightweight variant of LVLM-eHub, named Tiny LVLM-eHub. In comparison to the vanilla version, Tiny LVLM-eHub possesses several appealing properties. Firstly, it provides a systematic assessment of six categories of multimodal capabilities, including visual perception, visual knowledge acquisition, visual reasoning, visual commonsense, object hallucination, and embodied intelligence, through quantitative evaluation of 42 standard text-related visual benchmarks. Secondly, it conducts an in-depth analysis of LVLMs' predictions using the ChatGPT Ensemble Evaluation (CEE), which leads to a robust and accurate evaluation and exhibits improved alignment with human evaluation compared to the word matching approach. Thirdly, it comprises a mere 2.1K image-text pairs, facilitating ease of use for practitioners to evaluate their own offline LVLMs. Through extensive experimental analysis, this study demonstrates that Bard outperforms previous LVLMs in most multimodal capabilities except object hallucination, to which Bard is still susceptible. Tiny LVLM-eHub serves as a baseline evaluation for various LVLMs and encourages innovative strategies aimed at advancing multimodal techniques. Our project is publicly available at https://github.com/OpenGVLab/Multi-Modality-Arena.
PDF100December 15, 2024