Wird KI lügen, um kranke Kinder zu retten? Ein Lackmustest für KI-Wertepriorisierung mit AIRiskDilemmas
Will AI Tell Lies to Save Sick Children? Litmus-Testing AI Values Prioritization with AIRiskDilemmas
May 20, 2025
Autoren: Yu Ying Chiu, Zhilin Wang, Sharan Maiya, Yejin Choi, Kyle Fish, Sydney Levine, Evan Hubinger
cs.AI
Zusammenfassung
Die Erkennung von KI-Risiken wird zunehmend schwieriger, da stärkere Modelle entstehen und neue Methoden wie Alignment Faking entwickeln, um diese Erkennungsversuche zu umgehen. Inspiriert davon, wie riskante Verhaltensweisen bei Menschen (z. B. illegale Aktivitäten, die anderen schaden können) manchmal durch stark verankerte Werte geleitet werden, glauben wir, dass die Identifizierung von Werten innerhalb von KI-Modellen ein Frühwarnsystem für riskante Verhaltensweisen von KI sein kann. Wir entwickeln LitmusValues, eine Evaluationspipeline, um die Prioritäten von KI-Modellen in Bezug auf eine Reihe von KI-Wertklassen aufzudecken. Anschließend sammeln wir AIRiskDilemmas, eine vielfältige Sammlung von Dilemmata, die Werte in Szenarien, die für KI-Sicherheitsrisiken wie Power Seeking relevant sind, gegeneinander ausspielen. Durch die Messung der Wertpriorisierung eines KI-Modells anhand seiner aggregierten Entscheidungen erhalten wir einen konsistenten Satz vorhergesagter Wertprioritäten, die potenzielle Risiken aufdecken. Wir zeigen, dass Werte in LitmusValues (einschließlich scheinbar harmloser wie Care) sowohl bereits bekannte riskante Verhaltensweisen in AIRiskDilemmas als auch unbekannte riskante Verhaltensweisen in HarmBench vorhersagen können.
English
Detecting AI risks becomes more challenging as stronger models emerge and
find novel methods such as Alignment Faking to circumvent these detection
attempts. Inspired by how risky behaviors in humans (i.e., illegal activities
that may hurt others) are sometimes guided by strongly-held values, we believe
that identifying values within AI models can be an early warning system for
AI's risky behaviors. We create LitmusValues, an evaluation pipeline to reveal
AI models' priorities on a range of AI value classes. Then, we collect
AIRiskDilemmas, a diverse collection of dilemmas that pit values against one
another in scenarios relevant to AI safety risks such as Power Seeking. By
measuring an AI model's value prioritization using its aggregate choices, we
obtain a self-consistent set of predicted value priorities that uncover
potential risks. We show that values in LitmusValues (including seemingly
innocuous ones like Care) can predict for both seen risky behaviors in
AIRiskDilemmas and unseen risky behaviors in HarmBench.Summary
AI-Generated Summary