大規模言語モデルにおける動機付け
Motivation in Large Language Models
March 15, 2026
著者: Omer Nahum, Asael Sklar, Ariel Goldstein, Roi Reichart
cs.AI
要旨
動機付けは人間の行動の中核的な駆動力であり、意思決定、目標設定、課題遂行を形成する。大規模言語モデル(LLM)が人間の選好と次第に整合するようになる中で、我々はLLMが動機付けに類似した特性を示すかどうかを問う。本論文では、LLMが異なる水準の動機付けを「報告」するかどうか、これらの報告がその行動とどう関連するか、外的要因がそれらに影響を与えうるかどうかを検証する。実験結果は、人間の心理学に通じる一貫性ある構造化されたパターンを明らかにする:自己申告された動機付けは異なる行動特性と整合し、課題タイプによって変動し、外的操作によって調整可能である。これらの発見は、動機付けがLLMの行動に対する首尾一貫した組織化概念であり、報告・選択・努力・パフォーマンスを体系的に結びつけ、人間心理学で実証されたものと類似する動機的ダイナミクスを明らかにすることを示す。この視点は、モデル行動の理解と人間由来の概念との関連性を深化させる。
English
Motivation is a central driver of human behavior, shaping decisions, goals, and task performance. As large language models (LLMs) become increasingly aligned with human preferences, we ask whether they exhibit something akin to motivation. We examine whether LLMs "report" varying levels of motivation, how these reports relate to their behavior, and whether external factors can influence them. Our experiments reveal consistent and structured patterns that echo human psychology: self-reported motivation aligns with different behavioral signatures, varies across task types, and can be modulated by external manipulations. These findings demonstrate that motivation is a coherent organizing construct for LLM behavior, systematically linking reports, choices, effort, and performance, and revealing motivational dynamics that resemble those documented in human psychology. This perspective deepens our understanding of model behavior and its connection to human-inspired concepts.