CLASH: Bewertung von Sprachmodellen bei der Beurteilung von Hochrisiko-Dilemmata aus mehreren Perspektiven
CLASH: Evaluating Language Models on Judging High-Stakes Dilemmas from Multiple Perspectives
April 15, 2025
Autoren: Ayoung Lee, Ryan Sungmo Kwon, Peter Railton, Lu Wang
cs.AI
Zusammenfassung
Die Navigation durch hochriskante Dilemmata, die widersprüchliche Werte beinhalten, ist selbst für Menschen eine Herausforderung, geschweige denn für KI. Bisherige Arbeiten zur Bewertung der Argumentationsfähigkeiten großer Sprachmodelle (LLMs) in solchen Situationen beschränkten sich jedoch auf alltägliche Szenarien. Um diese Lücke zu schließen, stellt diese Arbeit zunächst CLASH (Character perspective-based LLM Assessments in Situations with High-stakes) vor, einen sorgfältig kuratierten Datensatz, der 345 hochbedeutsame Dilemmata sowie 3.795 individuelle Perspektiven verschiedener Werte umfasst. Insbesondere wurde CLASH so gestaltet, dass es die Untersuchung kritischer Aspekte wertbasierter Entscheidungsprozesse unterstützt, die in früheren Arbeiten fehlten, darunter das Verständnis von Entscheidungsambivalenz und psychologischem Unbehagen sowie die Erfassung zeitlicher Verschiebungen von Werten in den Perspektiven der Charaktere. Durch die Bewertung von 10 offenen und geschlossenen Frontier-Modellen decken wir mehrere zentrale Erkenntnisse auf. (1) Selbst die stärksten Modelle wie GPT-4o und Claude-Sonnet erreichen eine Genauigkeit von weniger als 50 % bei der Identifizierung von Situationen, in denen die Entscheidung ambivalent sein sollte, während sie in eindeutigen Szenarien deutlich besser abschneiden. (2) Obwohl LLMs psychologisches Unbehagen, wie es von Menschen markiert wird, vernünftig vorhersagen, verstehen sie Perspektiven, die Wertverschiebungen beinhalten, unzureichend, was auf die Notwendigkeit hinweist, dass LLMs komplexe Werte berücksichtigen müssen. (3) Unsere Experimente zeigen auch eine signifikante Korrelation zwischen den Wertpräferenzen der LLMs und ihrer Steuerbarkeit in Richtung eines bestimmten Wertes. (4) Schließlich zeigen LLMs eine größere Steuerbarkeit, wenn sie in der Wertargumentation aus einer Drittperspektive engagiert sind, verglichen mit einem First-Person-Setup, obwohl bestimmte Wertpaare einzigartig von der First-Person-Rahmung profitieren.
English
Navigating high-stakes dilemmas involving conflicting values is challenging
even for humans, let alone for AI. Yet prior work in evaluating the reasoning
capabilities of large language models (LLMs) in such situations has been
limited to everyday scenarios. To close this gap, this work first introduces
CLASH (Character perspective-based LLM Assessments in Situations with
High-stakes), a meticulously curated dataset consisting of 345 high-impact
dilemmas along with 3,795 individual perspectives of diverse values. In
particular, we design CLASH in a way to support the study of critical aspects
of value-based decision-making processes which are missing from prior work,
including understanding decision ambivalence and psychological discomfort as
well as capturing the temporal shifts of values in characters' perspectives. By
benchmarking 10 open and closed frontier models, we uncover several key
findings. (1) Even the strongest models, such as GPT-4o and Claude-Sonnet,
achieve less than 50% accuracy in identifying situations where the decision
should be ambivalent, while they perform significantly better in clear-cut
scenarios. (2) While LLMs reasonably predict psychological discomfort as marked
by human, they inadequately comprehend perspectives involving value shifts,
indicating a need for LLMs to reason over complex values. (3) Our experiments
also reveal a significant correlation between LLMs' value preferences and their
steerability towards a given value. (4) Finally, LLMs exhibit greater
steerability when engaged in value reasoning from a third-party perspective,
compared to a first-person setup, though certain value pairs benefit uniquely
from the first-person framing.Summary
AI-Generated Summary