ChatPaper.aiChatPaper

アナロジーの不思議な事例:大規模言語モデルにおける類推推論の探求

The Curious Case of Analogies: Investigating Analogical Reasoning in Large Language Models

November 25, 2025
著者: Taewhoo Lee, Minju Song, Chanwoong Yoon, Jungwoo Park, Jaewoo Kang
cs.AI

要旨

類推推論は人間の認知の中核をなすものであり、多様な知的活動の重要な基盤として機能している。従来の研究では大規模言語モデル(LLM)がタスクパターンや表面的な概念を表現できることが示されてきたが、これらのモデルが高次関係概念を符号化し、構造化された比較を通じて新たな状況に適用できるかどうかは未解明である。本研究では比例類推と物語類推を用いてこの基礎的側面を探り、3つの主要な知見を得た。第一に、LLMは類推対象間の根底にある関係性を効果的に符号化する。正答ケースでは属性情報と関係情報の両方が中上層で伝播する一方、推論失敗はこれらの層内での関係情報の欠如を反映する。第二に、人間とは異なり、LLMは関係情報が欠如している場合だけでなく、それを新たな対象に適用しようとする際にも困難を示す。こうした場合、重要なトークン位置での隠れ表現を戦略的に修正することで、情報伝達がある程度促進される。最後に、LLMにおける成功的な類推推論は、類推状況間の強い構造的対応によって特徴づけられるのに対し、失敗は対応の劣化または誤配置を反映する。総じて我々の知見は、LLMが高次関係概念の符号化と適用において萌芽的だが限定的な能力を示すこと、つまり人間の認知との共通点と隔たりの両方を明らかにするものである。
English
Analogical reasoning is at the core of human cognition, serving as an important foundation for a variety of intellectual activities. While prior work has shown that LLMs can represent task patterns and surface-level concepts, it remains unclear whether these models can encode high-level relational concepts and apply them to novel situations through structured comparisons. In this work, we explore this fundamental aspect using proportional and story analogies, and identify three key findings. First, LLMs effectively encode the underlying relationships between analogous entities; both attributive and relational information propagate through mid-upper layers in correct cases, whereas reasoning failures reflect missing relational information within these layers. Second, unlike humans, LLMs often struggle not only when relational information is missing, but also when attempting to apply it to new entities. In such cases, strategically patching hidden representations at critical token positions can facilitate information transfer to a certain extent. Lastly, successful analogical reasoning in LLMs is marked by strong structural alignment between analogous situations, whereas failures often reflect degraded or misplaced alignment. Overall, our findings reveal that LLMs exhibit emerging but limited capabilities in encoding and applying high-level relational concepts, highlighting both parallels and gaps with human cognition.
PDF91December 4, 2025