CLASH:複数視点からの重大なジレンマ判断における言語モデルの評価
CLASH: Evaluating Language Models on Judging High-Stakes Dilemmas from Multiple Perspectives
April 15, 2025
著者: Ayoung Lee, Ryan Sungmo Kwon, Peter Railton, Lu Wang
cs.AI
要旨
相反する価値観が絡む重大なジレンマを乗り越えることは、人間にとっても困難であり、ましてやAIにとってはなおさらです。しかし、これまでの大規模言語モデル(LLM)の推論能力を評価する研究は、日常的なシナリオに限定されていました。このギャップを埋めるため、本研究ではまずCLASH(Character perspective-based LLM Assessments in Situations with High-stakes)を導入します。これは、345の高インパクトなジレンマと、多様な価値観に基づく3,795の個別の視点からなる、厳選されたデータセットです。特に、CLASHは、意思決定における葛藤や心理的不快の理解、キャラクターの視点における価値観の時間的変化の把握など、これまでの研究で欠けていた価値観に基づく意思決定プロセスの重要な側面を研究するために設計されています。10のオープンおよびクローズドなフロンティアモデルをベンチマークすることで、いくつかの重要な発見を得ました。(1) GPT-4oやClaude-Sonnetのような最強のモデルでさえ、意思決定が葛藤すべき状況を特定する精度は50%未満であり、明確なシナリオでは大幅に優れた性能を示します。(2) LLMは、人間が示す心理的不快を合理的に予測する一方で、価値観の変化を含む視点を十分に理解できておらず、複雑な価値観を推論する必要性が示されています。(3) 実験では、LLMの価値観の選好と、特定の価値観への誘導可能性との間に有意な相関があることも明らかになりました。(4) 最後に、LLMは、一人称設定と比較して、第三者視点から価値観を推論する際に、より高い誘導可能性を示しますが、特定の価値観のペアでは一人称フレーミングが独自の利点をもたらすこともわかりました。
English
Navigating high-stakes dilemmas involving conflicting values is challenging
even for humans, let alone for AI. Yet prior work in evaluating the reasoning
capabilities of large language models (LLMs) in such situations has been
limited to everyday scenarios. To close this gap, this work first introduces
CLASH (Character perspective-based LLM Assessments in Situations with
High-stakes), a meticulously curated dataset consisting of 345 high-impact
dilemmas along with 3,795 individual perspectives of diverse values. In
particular, we design CLASH in a way to support the study of critical aspects
of value-based decision-making processes which are missing from prior work,
including understanding decision ambivalence and psychological discomfort as
well as capturing the temporal shifts of values in characters' perspectives. By
benchmarking 10 open and closed frontier models, we uncover several key
findings. (1) Even the strongest models, such as GPT-4o and Claude-Sonnet,
achieve less than 50% accuracy in identifying situations where the decision
should be ambivalent, while they perform significantly better in clear-cut
scenarios. (2) While LLMs reasonably predict psychological discomfort as marked
by human, they inadequately comprehend perspectives involving value shifts,
indicating a need for LLMs to reason over complex values. (3) Our experiments
also reveal a significant correlation between LLMs' value preferences and their
steerability towards a given value. (4) Finally, LLMs exhibit greater
steerability when engaged in value reasoning from a third-party perspective,
compared to a first-person setup, though certain value pairs benefit uniquely
from the first-person framing.Summary
AI-Generated Summary