ChatPaper.aiChatPaper

MetaMind: Modellierung menschlicher sozialer Gedanken mit metakognitiven Multi-Agenten-Systemen

MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems

May 25, 2025
Autoren: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI

Zusammenfassung

Menschliche soziale Interaktionen hängen von der Fähigkeit ab, die unausgesprochenen Absichten, Emotionen und Überzeugungen anderer zu erschließen – eine kognitive Fähigkeit, die auf dem psychologischen Konzept der Theory of Mind (ToM) basiert. Während große Sprachmodelle (LLMs) bei Aufgaben des semantischen Verständnisses hervorragend abschneiden, haben sie Schwierigkeiten mit der Mehrdeutigkeit und dem kontextuellen Nuancenreichtum, die der menschlichen Kommunikation innewohnen. Um diese Lücke zu schließen, stellen wir MetaMind vor, ein Multi-Agenten-Framework, das von psychologischen Theorien der Metakognition inspiriert ist und darauf abzielt, menschliches soziales Denken nachzuahmen. MetaMind zerlegt soziales Verständnis in drei kooperative Stufen: (1) ein Theory-of-Mind-Agent generiert Hypothesen über mentale Zustände des Nutzers (z. B. Absicht, Emotion), (2) ein Domänen-Agent verfeinert diese Hypothesen unter Berücksichtigung kultureller Normen und ethischer Einschränkungen, und (3) ein Antwort-Agent erzeugt kontextuell angemessene Antworten und überprüft dabei die Übereinstimmung mit der erschlossenen Absicht. Unser Framework erreicht Spitzenleistungen in drei anspruchsvollen Benchmarks, mit einer Verbesserung von 35,7 % in realen sozialen Szenarien und einem Zuwachs von 6,2 % in der ToM-Argumentation. Bemerkenswerterweise ermöglicht es LLMs erstmals, auf Schlüsselaufgaben der ToM menschliches Niveau zu erreichen. Ablationsstudien bestätigen die Notwendigkeit aller Komponenten, die die Fähigkeit des Frameworks zeigen, kontextuelle Plausibilität, soziale Angemessenheit und Nutzeranpassung in Einklang zu bringen. Diese Arbeit bringt KI-Systeme einen Schritt näher an eine menschenähnliche soziale Intelligenz, mit Anwendungen in empathischen Dialogen und kultursensiblen Interaktionen. Der Code ist verfügbar unter https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken intentions, emotions, and beliefs-a cognitive skill grounded in the psychological concept of Theory of Mind (ToM). While large language models (LLMs) excel in semantic understanding tasks, they struggle with the ambiguity and contextual nuance inherent in human communication. To bridge this gap, we introduce MetaMind, a multi-agent framework inspired by psychological theories of metacognition, designed to emulate human-like social reasoning. MetaMind decomposes social understanding into three collaborative stages: (1) a Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent, emotion), (2) a Domain Agent refines these hypotheses using cultural norms and ethical constraints, and (3) a Response Agent generates contextually appropriate responses while validating alignment with inferred intent. Our framework achieves state-of-the-art performance across three challenging benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain in ToM reasoning. Notably, it enables LLMs to match human-level performance on key ToM tasks for the first time. Ablation studies confirm the necessity of all components, which showcase the framework's ability to balance contextual plausibility, social appropriateness, and user adaptation. This work advances AI systems toward human-like social intelligence, with applications in empathetic dialogue and culturally sensitive interactions. Code is available at https://github.com/XMZhangAI/MetaMind.

Summary

AI-Generated Summary

PDF244May 28, 2025