ChatPaper.aiChatPaper

大規模言語モデルは、人間が実際よりも合理的であると想定している

Large Language Models Assume People are More Rational than We Really are

June 24, 2024
著者: Ryan Liu, Jiayi Geng, Joshua C. Peterson, Ilia Sucholutsky, Thomas L. Griffiths
cs.AI

要旨

AIシステムが人間と効果的にコミュニケーションするためには、人間がどのように意思決定を行うかを理解する必要があります。しかし、人間の意思決定は必ずしも合理的ではないため、大規模言語モデル(LLM)における人間の意思決定の暗黙的な内部モデルは、これを考慮しなければなりません。これまでの実証的な証拠は、これらの暗黙的なモデルが正確であることを示唆しているように見えます――LLMは、日常的な相互作用において人間がどのように行動するかを期待するような、人間の行動の信頼できる代理を提供します。しかし、LLMの行動と予測を人間の意思決定の大規模なデータセットと比較すると、実際にはそうではないことがわかります:人間の選択をシミュレートし予測する際に、最先端のLLM(GPT-4o & 4-Turbo、Llama-3-8B & 70B、Claude 3 Opus)は、人間が実際よりも合理的であると仮定しています。具体的には、これらのモデルは人間の行動から逸脱し、古典的な合理的選択のモデル――期待値理論――により近いものに整合しています。興味深いことに、人間もまた、他者の行動を解釈する際に、他者が合理的であると仮定する傾向があります。その結果、LLMと人間が他者の意思決定から導き出す推論を別の心理学的データセットを用いて比較すると、これらの推論が高度に相関していることがわかります。したがって、LLMの暗黙的な意思決定モデルは、人間が実際にどのように行動するかではなく、他者が合理的に行動するという人間の期待に整合しているように見えます。
English
In order for AI systems to communicate effectively with people, they must understand how we make decisions. However, people's decisions are not always rational, so the implicit internal models of human decision-making in Large Language Models (LLMs) must account for this. Previous empirical evidence seems to suggest that these implicit models are accurate -- LLMs offer believable proxies of human behavior, acting how we expect humans would in everyday interactions. However, by comparing LLM behavior and predictions to a large dataset of human decisions, we find that this is actually not the case: when both simulating and predicting people's choices, a suite of cutting-edge LLMs (GPT-4o & 4-Turbo, Llama-3-8B & 70B, Claude 3 Opus) assume that people are more rational than we really are. Specifically, these models deviate from human behavior and align more closely with a classic model of rational choice -- expected value theory. Interestingly, people also tend to assume that other people are rational when interpreting their behavior. As a consequence, when we compare the inferences that LLMs and people draw from the decisions of others using another psychological dataset, we find that these inferences are highly correlated. Thus, the implicit decision-making models of LLMs appear to be aligned with the human expectation that other people will act rationally, rather than with how people actually act.

Summary

AI-Generated Summary

PDF44November 29, 2024