MetaMind: Моделирование социального мышления человека с помощью метакогнитивных мультиагентных систем
MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems
May 25, 2025
Авторы: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI
Аннотация
Социальные взаимодействия людей зависят от способности выявлять невысказанные намерения, эмоции и убеждения других — когнитивного навыка, основанного на психологической концепции Теории Разума (Theory of Mind, ToM). Хотя крупные языковые модели (LLMs) преуспевают в задачах семантического понимания, они сталкиваются с трудностями при работе с неоднозначностью и контекстуальными нюансами, присущими человеческому общению. Чтобы преодолеть этот разрыв, мы представляем MetaMind — мультиагентный фреймворк, вдохновленный психологическими теориями метакогниции, предназначенный для эмуляции человеческого социального мышления. MetaMind разбивает социальное понимание на три совместных этапа: (1) агент Теории Разума генерирует гипотезы о ментальных состояниях пользователя (например, намерениях, эмоциях), (2) доменный агент уточняет эти гипотезы с учетом культурных норм и этических ограничений, и (3) агент ответа генерирует контекстуально уместные ответы, одновременно проверяя их соответствие выявленным намерениям. Наш фреймворк демонстрирует наилучшие результаты на трех сложных тестовых наборах, с улучшением на 35,7% в реальных социальных сценариях и на 6,2% в задачах, связанных с Теорией Разума. Примечательно, что он впервые позволяет LLMs достичь уровня человеческой производительности в ключевых задачах ToM. Абляционные исследования подтверждают необходимость всех компонентов, демонстрируя способность фреймворка балансировать между контекстуальной правдоподобностью, социальной уместностью и адаптацией к пользователю. Эта работа продвигает системы ИИ в направлении человеческого социального интеллекта, с приложениями в эмпатическом диалоге и культурно чувствительных взаимодействиях. Код доступен по адресу https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken
intentions, emotions, and beliefs-a cognitive skill grounded in the
psychological concept of Theory of Mind (ToM). While large language models
(LLMs) excel in semantic understanding tasks, they struggle with the ambiguity
and contextual nuance inherent in human communication. To bridge this gap, we
introduce MetaMind, a multi-agent framework inspired by psychological theories
of metacognition, designed to emulate human-like social reasoning. MetaMind
decomposes social understanding into three collaborative stages: (1) a
Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent,
emotion), (2) a Domain Agent refines these hypotheses using cultural norms and
ethical constraints, and (3) a Response Agent generates contextually
appropriate responses while validating alignment with inferred intent. Our
framework achieves state-of-the-art performance across three challenging
benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain
in ToM reasoning. Notably, it enables LLMs to match human-level performance on
key ToM tasks for the first time. Ablation studies confirm the necessity of all
components, which showcase the framework's ability to balance contextual
plausibility, social appropriateness, and user adaptation. This work advances
AI systems toward human-like social intelligence, with applications in
empathetic dialogue and culturally sensitive interactions. Code is available at
https://github.com/XMZhangAI/MetaMind.Summary
AI-Generated Summary