Assegnami Qualsiasi Compito
Task Me Anything
June 17, 2024
Autori: Jieyu Zhang, Weikai Huang, Zixian Ma, Oscar Michel, Dong He, Tanmay Gupta, Wei-Chiu Ma, Ali Farhadi, Aniruddha Kembhavi, Ranjay Krishna
cs.AI
Abstract
I benchmark per i grandi modelli linguistici multimodali (MLM) ora servono a valutare simultaneamente le capacità generali dei modelli, anziché concentrarsi su una specifica abilità. Di conseguenza, quando uno sviluppatore desidera identificare quali modelli utilizzare per la propria applicazione, si trova sopraffatto dal numero di benchmark e rimane incerto su quali risultati siano più rappresentativi del proprio caso d'uso specifico. Questo articolo introduce Task-Me-Anything, un motore di generazione di benchmark che produce un benchmark su misura per le esigenze dell'utente. Task-Me-Anything mantiene una tassonomia estendibile di risorse visive e può generare programmaticamente un vasto numero di istanze di task. Inoltre, affronta algoritmicamente le query degli utenti riguardanti le prestazioni degli MLM in modo efficiente, rispettando un budget computazionale. Contiene 113K immagini, 10K video, 2K risorse di oggetti 3D, oltre 365 categorie di oggetti, 655 attributi e 335 relazioni. È in grado di generare 750M coppie domanda-risposta basate su immagini/video, focalizzate sulla valutazione delle capacità percettive degli MLM. Task-Me-Anything rivela intuizioni cruciali: gli MLM open-source eccellono nel riconoscimento di oggetti e attributi ma mancano di comprensione spaziale e temporale; ogni modello mostra punti di forza e debolezza unici; i modelli più grandi generalmente performano meglio, sebbene esistano eccezioni; e GPT4o dimostra difficoltà nel riconoscere oggetti in rotazione/movimento e nel distinguere i colori.
English
Benchmarks for large multimodal language models (MLMs) now serve to
simultaneously assess the general capabilities of models instead of evaluating
for a specific capability. As a result, when a developer wants to identify
which models to use for their application, they are overwhelmed by the number
of benchmarks and remain uncertain about which benchmark's results are most
reflective of their specific use case. This paper introduces Task-Me-Anything,
a benchmark generation engine which produces a benchmark tailored to a user's
needs. Task-Me-Anything maintains an extendable taxonomy of visual assets and
can programmatically generate a vast number of task instances. Additionally, it
algorithmically addresses user queries regarding MLM performance efficiently
within a computational budget. It contains 113K images, 10K videos, 2K 3D
object assets, over 365 object categories, 655 attributes, and 335
relationships. It can generate 750M image/video question-answering pairs, which
focus on evaluating MLM perceptual capabilities. Task-Me-Anything reveals
critical insights: open-source MLMs excel in object and attribute recognition
but lack spatial and temporal understanding; each model exhibits unique
strengths and weaknesses; larger models generally perform better, though
exceptions exist; and GPT4o demonstrates challenges in recognizing
rotating/moving objects and distinguishing colors.