ChatPaper.aiChatPaper

Большие языковые модели предполагают, что люди более рациональны, чем мы на самом деле.

Large Language Models Assume People are More Rational than We Really are

June 24, 2024
Авторы: Ryan Liu, Jiayi Geng, Joshua C. Peterson, Ilia Sucholutsky, Thomas L. Griffiths
cs.AI

Аннотация

Для того чтобы системы искусственного интеллекта эффективно общались с людьми, им необходимо понимать, как мы принимаем решения. Однако решения людей не всегда рациональны, поэтому неявные внутренние модели принятия решений человека в больших языковых моделях (LLM) должны учитывать это. Предыдущие эмпирические данные, кажется, свидетельствуют о том, что эти неявные модели точны - LLM предлагают правдоподобные аналоги человеческого поведения, действуя так, как мы ожидаем, что люди поступают в повседневных взаимодействиях. Однако, сравнивая поведение и прогнозы LLM с большим набором данных о человеческих решениях, мы обнаруживаем, что на самом деле это не так: при симуляции и прогнозировании выбора людей ряд передовых LLM (GPT-4o & 4-Turbo, Llama-3-8B & 70B, Claude 3 Opus) предполагают, что люди более рациональны, чем мы на самом деле. Конкретно, эти модели отклоняются от человеческого поведения и ближе соответствуют классической модели рационального выбора - теории ожидаемой ценности. Интересно, что люди также склонны предполагать, что другие люди рациональны, когда интерпретируют их поведение. В результате, сравнивая выводы, к которым приходят LLM и люди из решений других людей с использованием другого психологического набора данных, мы обнаруживаем, что эти выводы сильно коррелируют. Таким образом, неявные модели принятия решений LLM, кажется, соответствуют ожиданию человека, что другие люди будут действовать рационально, а не тому, как на самом деле действуют люди.
English
In order for AI systems to communicate effectively with people, they must understand how we make decisions. However, people's decisions are not always rational, so the implicit internal models of human decision-making in Large Language Models (LLMs) must account for this. Previous empirical evidence seems to suggest that these implicit models are accurate -- LLMs offer believable proxies of human behavior, acting how we expect humans would in everyday interactions. However, by comparing LLM behavior and predictions to a large dataset of human decisions, we find that this is actually not the case: when both simulating and predicting people's choices, a suite of cutting-edge LLMs (GPT-4o & 4-Turbo, Llama-3-8B & 70B, Claude 3 Opus) assume that people are more rational than we really are. Specifically, these models deviate from human behavior and align more closely with a classic model of rational choice -- expected value theory. Interestingly, people also tend to assume that other people are rational when interpreting their behavior. As a consequence, when we compare the inferences that LLMs and people draw from the decisions of others using another psychological dataset, we find that these inferences are highly correlated. Thus, the implicit decision-making models of LLMs appear to be aligned with the human expectation that other people will act rationally, rather than with how people actually act.

Summary

AI-Generated Summary

PDF44November 29, 2024