社会的知能を持つLLMエージェントへの心の理論の導入
Infusing Theory of Mind into Socially Intelligent LLM Agents
September 26, 2025
著者: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI
要旨
心の理論(Theory of Mind, ToM)―他者の心的状態を理解する能力―は、人間の社会的知性の重要な側面である。しかし、チャットボットや大規模言語モデル(LLM)ベースの社会的エージェントは、通常これを統合していない。本研究では、ToMを明示的に使用するLLMが対話能力を向上させ、目標をより効果的に達成することを実証する。まず、モデルに対話のターン間で心的状態を生成するよう促すだけで既に大きな効果が得られることを示した後、さらにToMに焦点を当てた対話エージェントであるToMAgent(ToMA)を導入する。ToMAは、ToMと対話の先読みを組み合わせて訓練され、対話目標の達成に最大限有用な心的状態を生成する。Sotopiaインタラクティブ社会評価ベンチマークを用いた実験により、本手法が一連のベースラインを上回る有効性を示す。詳細な分析により、ToMAがより戦略的で目標指向の推論行動を示し、長期的な適応を可能にしながら、パートナーとの良好な関係を維持することが明らかになった。これらの結果は、社会的に知的なLLMエージェントを構築するためにToMを統合するための一歩前進を示唆している。
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key
aspect of human social intelligence, yet, chatbots and LLM-based social agents
do not typically integrate it. In this work, we demonstrate that LLMs that
explicitly use ToM get better at dialogue, achieving goals more effectively.
After showing that simply prompting models to generate mental states between
dialogue turns already provides significant benefit, we further introduce
ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM
with dialogue lookahead to produce mental states that are maximally useful for
achieving dialogue goals. Experiments on the Sotopia interactive social
evaluation benchmark demonstrate the effectiveness of our method over a range
of baselines. Comprehensive analysis shows that ToMA exhibits more strategic,
goal-oriented reasoning behaviors, which enable long-horizon adaptation, while
maintaining better relationships with their partners. Our results suggest a
step forward in integrating ToM for building socially intelligent LLM agents.