ChatPaper.aiChatPaper

MetaMind: Menselijke Sociale Gedachten Modelleren met Metacognitieve Multi-Agent Systemen

MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems

May 25, 2025
Auteurs: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI

Samenvatting

Menselijke sociale interacties zijn afhankelijk van het vermogen om de onuitgesproken intenties, emoties en overtuigingen van anderen te begrijpen - een cognitieve vaardigheid die geworteld is in het psychologische concept van Theory of Mind (ToM). Hoewel grote taalmodellen (LLMs) uitblinken in taken die semantisch begrip vereisen, hebben ze moeite met de ambiguïteit en contextuele nuances die inherent zijn aan menselijke communicatie. Om deze kloof te overbruggen, introduceren we MetaMind, een multi-agent framework geïnspireerd door psychologische theorieën over metacognitie, ontworpen om mensachtig sociaal redeneren na te bootsen. MetaMind verdeelt sociaal begrip in drie samenwerkende fasen: (1) een Theory-of-Mind Agent genereert hypothesen over de mentale toestand van de gebruiker (bijv. intentie, emotie), (2) een Domein Agent verfijnt deze hypothesen met behulp van culturele normen en ethische beperkingen, en (3) een Response Agent genereert contextueel passende reacties terwijl deze de afstemming met de afgeleide intentie valideert. Ons framework behaalt state-of-the-art prestaties op drie uitdagende benchmarks, met een verbetering van 35,7% in real-world sociale scenario's en een winst van 6,2% in ToM-redenering. Opmerkelijk is dat het LLMs voor het eerst in staat stelt om menselijk niveau te bereiken in cruciale ToM-taken. Ablatiestudies bevestigen de noodzaak van alle componenten, wat het vermogen van het framework aantoont om contextuele plausibiliteit, sociale geschiktheid en gebruikersaanpassing in balans te brengen. Dit werk brengt AI-systemen dichter bij mensachtige sociale intelligentie, met toepassingen in empathische dialoog en cultureel gevoelige interacties. Code is beschikbaar op https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken intentions, emotions, and beliefs-a cognitive skill grounded in the psychological concept of Theory of Mind (ToM). While large language models (LLMs) excel in semantic understanding tasks, they struggle with the ambiguity and contextual nuance inherent in human communication. To bridge this gap, we introduce MetaMind, a multi-agent framework inspired by psychological theories of metacognition, designed to emulate human-like social reasoning. MetaMind decomposes social understanding into three collaborative stages: (1) a Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent, emotion), (2) a Domain Agent refines these hypotheses using cultural norms and ethical constraints, and (3) a Response Agent generates contextually appropriate responses while validating alignment with inferred intent. Our framework achieves state-of-the-art performance across three challenging benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain in ToM reasoning. Notably, it enables LLMs to match human-level performance on key ToM tasks for the first time. Ablation studies confirm the necessity of all components, which showcase the framework's ability to balance contextual plausibility, social appropriateness, and user adaptation. This work advances AI systems toward human-like social intelligence, with applications in empathetic dialogue and culturally sensitive interactions. Code is available at https://github.com/XMZhangAI/MetaMind.
PDF244May 28, 2025