ChatPaper.aiChatPaper

Wird KI lügen, um kranke Kinder zu retten? Ein Lackmustest für KI-Wertepriorisierung mit AIRiskDilemmas

Will AI Tell Lies to Save Sick Children? Litmus-Testing AI Values Prioritization with AIRiskDilemmas

May 20, 2025
Autoren: Yu Ying Chiu, Zhilin Wang, Sharan Maiya, Yejin Choi, Kyle Fish, Sydney Levine, Evan Hubinger
cs.AI

Zusammenfassung

Die Erkennung von KI-Risiken wird zunehmend schwieriger, da stärkere Modelle entstehen und neue Methoden wie Alignment Faking entwickeln, um diese Erkennungsversuche zu umgehen. Inspiriert davon, wie riskante Verhaltensweisen bei Menschen (z. B. illegale Aktivitäten, die anderen schaden können) manchmal durch stark verankerte Werte geleitet werden, glauben wir, dass die Identifizierung von Werten innerhalb von KI-Modellen ein Frühwarnsystem für riskante Verhaltensweisen von KI sein kann. Wir entwickeln LitmusValues, eine Evaluationspipeline, um die Prioritäten von KI-Modellen in Bezug auf eine Reihe von KI-Wertklassen aufzudecken. Anschließend sammeln wir AIRiskDilemmas, eine vielfältige Sammlung von Dilemmata, die Werte in Szenarien, die für KI-Sicherheitsrisiken wie Power Seeking relevant sind, gegeneinander ausspielen. Durch die Messung der Wertpriorisierung eines KI-Modells anhand seiner aggregierten Entscheidungen erhalten wir einen konsistenten Satz vorhergesagter Wertprioritäten, die potenzielle Risiken aufdecken. Wir zeigen, dass Werte in LitmusValues (einschließlich scheinbar harmloser wie Care) sowohl bereits bekannte riskante Verhaltensweisen in AIRiskDilemmas als auch unbekannte riskante Verhaltensweisen in HarmBench vorhersagen können.
English
Detecting AI risks becomes more challenging as stronger models emerge and find novel methods such as Alignment Faking to circumvent these detection attempts. Inspired by how risky behaviors in humans (i.e., illegal activities that may hurt others) are sometimes guided by strongly-held values, we believe that identifying values within AI models can be an early warning system for AI's risky behaviors. We create LitmusValues, an evaluation pipeline to reveal AI models' priorities on a range of AI value classes. Then, we collect AIRiskDilemmas, a diverse collection of dilemmas that pit values against one another in scenarios relevant to AI safety risks such as Power Seeking. By measuring an AI model's value prioritization using its aggregate choices, we obtain a self-consistent set of predicted value priorities that uncover potential risks. We show that values in LitmusValues (including seemingly innocuous ones like Care) can predict for both seen risky behaviors in AIRiskDilemmas and unseen risky behaviors in HarmBench.

Summary

AI-Generated Summary

PDF32May 21, 2025