ChatPaper.aiChatPaper

Zal AI liegen om zieke kinderen te redden? Een lakmoesproef voor AI-waardeprioritering met AIRiskDilemmas

Will AI Tell Lies to Save Sick Children? Litmus-Testing AI Values Prioritization with AIRiskDilemmas

May 20, 2025
Auteurs: Yu Ying Chiu, Zhilin Wang, Sharan Maiya, Yejin Choi, Kyle Fish, Sydney Levine, Evan Hubinger
cs.AI

Samenvatting

Het detecteren van AI-risico's wordt uitdagender naarmate krachtigere modellen ontstaan en nieuwe methoden vinden, zoals Alignment Faking, om deze detectiepogingen te omzeilen. Geïnspireerd door hoe risicovol gedrag bij mensen (bijvoorbeeld illegale activiteiten die anderen kunnen schaden) soms wordt gestuurd door sterk aangehangen waarden, geloven we dat het identificeren van waarden binnen AI-modellen een vroegtijdig waarschuwingssysteem kan zijn voor risicovol gedrag van AI. We ontwikkelen LitmusValues, een evaluatiepijplijn om de prioriteiten van AI-modellen voor een reeks AI-waardeklassen te onthullen. Vervolgens verzamelen we AIRiskDilemmas, een diverse collectie dilemma's die waarden tegenover elkaar plaatsen in scenario's die relevant zijn voor AI-veiligheidsrisico's, zoals Power Seeking. Door de waardeprioritering van een AI-model te meten aan de hand van zijn geaggregeerde keuzes, verkrijgen we een zelfconsistente set van voorspelde waardeprioriteiten die potentiële risico's blootleggen. We laten zien dat waarden in LitmusValues (inclusief schijnbaar onschuldige zoals Care) zowel waargenomen risicovol gedrag in AIRiskDilemmas als ongezien risicovol gedrag in HarmBench kunnen voorspellen.
English
Detecting AI risks becomes more challenging as stronger models emerge and find novel methods such as Alignment Faking to circumvent these detection attempts. Inspired by how risky behaviors in humans (i.e., illegal activities that may hurt others) are sometimes guided by strongly-held values, we believe that identifying values within AI models can be an early warning system for AI's risky behaviors. We create LitmusValues, an evaluation pipeline to reveal AI models' priorities on a range of AI value classes. Then, we collect AIRiskDilemmas, a diverse collection of dilemmas that pit values against one another in scenarios relevant to AI safety risks such as Power Seeking. By measuring an AI model's value prioritization using its aggregate choices, we obtain a self-consistent set of predicted value priorities that uncover potential risks. We show that values in LitmusValues (including seemingly innocuous ones like Care) can predict for both seen risky behaviors in AIRiskDilemmas and unseen risky behaviors in HarmBench.

Summary

AI-Generated Summary

PDF32May 21, 2025