MetaMind: Modellazione dei Pensieri Sociali Umani con Sistemi Multi-Agente Metacognitivi
MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems
May 25, 2025
Autori: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI
Abstract
Le interazioni sociali umane dipendono dalla capacità di inferire intenzioni, emozioni e credenze non espresse degli altri, un'abilità cognitiva radicata nel concetto psicologico di Teoria della Mente (ToM). Mentre i grandi modelli linguistici (LLM) eccellono nei compiti di comprensione semantica, faticano a gestire l'ambiguità e le sfumature contestuali intrinseche nella comunicazione umana. Per colmare questa lacuna, introduciamo MetaMind, un framework multi-agente ispirato alle teorie psicologiche della metacognizione, progettato per emulare il ragionamento sociale simile a quello umano. MetaMind scompone la comprensione sociale in tre fasi collaborative: (1) un Agente Teoria della Mente genera ipotesi sugli stati mentali dell'utente (ad esempio, intenzione, emozione), (2) un Agente di Dominio affina queste ipotesi utilizzando norme culturali e vincoli etici, e (3) un Agente di Risposta genera risposte contestualmente appropriate, validando l'allineamento con l'intenzione inferita. Il nostro framework raggiunge prestazioni all'avanguardia in tre benchmark impegnativi, con un miglioramento del 35,7% negli scenari sociali del mondo reale e un guadagno del 6,2% nel ragionamento ToM. In particolare, consente per la prima volta agli LLM di eguagliare le prestazioni umane in compiti chiave di ToM. Studi di ablazione confermano la necessità di tutti i componenti, dimostrando la capacità del framework di bilanciare plausibilità contestuale, appropriatezza sociale e adattamento all'utente. Questo lavoro avanza i sistemi di IA verso un'intelligenza sociale simile a quella umana, con applicazioni nel dialogo empatico e nelle interazioni culturalmente sensibili. Il codice è disponibile all'indirizzo https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken
intentions, emotions, and beliefs-a cognitive skill grounded in the
psychological concept of Theory of Mind (ToM). While large language models
(LLMs) excel in semantic understanding tasks, they struggle with the ambiguity
and contextual nuance inherent in human communication. To bridge this gap, we
introduce MetaMind, a multi-agent framework inspired by psychological theories
of metacognition, designed to emulate human-like social reasoning. MetaMind
decomposes social understanding into three collaborative stages: (1) a
Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent,
emotion), (2) a Domain Agent refines these hypotheses using cultural norms and
ethical constraints, and (3) a Response Agent generates contextually
appropriate responses while validating alignment with inferred intent. Our
framework achieves state-of-the-art performance across three challenging
benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain
in ToM reasoning. Notably, it enables LLMs to match human-level performance on
key ToM tasks for the first time. Ablation studies confirm the necessity of all
components, which showcase the framework's ability to balance contextual
plausibility, social appropriateness, and user adaptation. This work advances
AI systems toward human-like social intelligence, with applications in
empathetic dialogue and culturally sensitive interactions. Code is available at
https://github.com/XMZhangAI/MetaMind.