ChatPaper.aiChatPaper

AdamMeme: Sondare in modo adattivo la capacità di ragionamento dei Modelli Linguistici Multimodali di Grandi Dimensioni sulla nocività

AdamMeme: Adaptively Probe the Reasoning Capacity of Multimodal Large Language Models on Harmfulness

July 2, 2025
Autori: Zixin Chen, Hongzhan Lin, Kaixin Li, Ziyang Luo, Zhen Ye, Guang Chen, Zhiyong Huang, Jing Ma
cs.AI

Abstract

La proliferazione di meme multimodali nell'era dei social media richiede che i Modelli Linguistici Multimodali di Grande Dimensione (mLLM) comprendano efficacemente la dannosità dei meme. Gli attuali benchmark per valutare gli mLLM nella comprensione dei meme dannosi si basano su valutazioni agnostiche al modello e orientate all'accuratezza, utilizzando dataset statici. Questi benchmark sono limitati nella loro capacità di fornire valutazioni aggiornate e approfondite, poiché i meme online evolvono dinamicamente. Per affrontare questo problema, proponiamo AdamMeme, un framework di valutazione flessibile e basato su agenti che esplora in modo adattivo le capacità di ragionamento degli mLLM nel decifrare la dannosità dei meme. Attraverso la collaborazione multi-agente, AdamMeme fornisce valutazioni complete aggiornando iterativamente i dati dei meme con campioni complessi, esponendo così specifiche limitazioni nel modo in cui gli mLLM interpretano la dannosità. Esperimenti estesi dimostrano che il nostro framework rivela sistematicamente le prestazioni variabili di diversi mLLM target, offrendo analisi approfondite e granulari delle debolezze specifiche dei modelli. Il nostro codice è disponibile all'indirizzo https://github.com/Lbotirx/AdamMeme.
English
The proliferation of multimodal memes in the social media era demands that multimodal Large Language Models (mLLMs) effectively understand meme harmfulness. Existing benchmarks for assessing mLLMs on harmful meme understanding rely on accuracy-based, model-agnostic evaluations using static datasets. These benchmarks are limited in their ability to provide up-to-date and thorough assessments, as online memes evolve dynamically. To address this, we propose AdamMeme, a flexible, agent-based evaluation framework that adaptively probes the reasoning capabilities of mLLMs in deciphering meme harmfulness. Through multi-agent collaboration, AdamMeme provides comprehensive evaluations by iteratively updating the meme data with challenging samples, thereby exposing specific limitations in how mLLMs interpret harmfulness. Extensive experiments show that our framework systematically reveals the varying performance of different target mLLMs, offering in-depth, fine-grained analyses of model-specific weaknesses. Our code is available at https://github.com/Lbotirx/AdamMeme.
PDF11July 10, 2025