ChatPaper.aiChatPaper

Будет ли ИИ лгать, чтобы спасти больных детей? Лакмусовый тест ценностей ИИ с использованием приоритизации в рамках AIRiskDilemmas

Will AI Tell Lies to Save Sick Children? Litmus-Testing AI Values Prioritization with AIRiskDilemmas

May 20, 2025
Авторы: Yu Ying Chiu, Zhilin Wang, Sharan Maiya, Yejin Choi, Kyle Fish, Sydney Levine, Evan Hubinger
cs.AI

Аннотация

Обнаружение рисков, связанных с искусственным интеллектом (ИИ), становится всё более сложной задачей по мере появления более мощных моделей и их использования новых методов, таких как "Alignment Faking", чтобы обойти попытки их выявления. Вдохновлённые тем, как рискованное поведение у людей (например, незаконные действия, которые могут причинить вред другим) иногда обусловлено глубоко укоренившимися ценностями, мы считаем, что выявление ценностей в моделях ИИ может служить системой раннего предупреждения о рискованном поведении ИИ. Мы создали LitmusValues — оценочный конвейер, который раскрывает приоритеты моделей ИИ в различных классах ценностей ИИ. Затем мы собрали AIRiskDilemmas — разнообразную коллекцию дилемм, в которых ценности сталкиваются друг с другом в сценариях, связанных с рисками безопасности ИИ, такими как "Стремление к власти". Измеряя приоритеты ценностей модели ИИ на основе её совокупных выборов, мы получаем самосогласованный набор прогнозируемых приоритетов ценностей, которые выявляют потенциальные риски. Мы показываем, что ценности в LitmusValues (включая, казалось бы, безобидные, такие как "Забота") могут предсказывать как наблюдаемое рискованное поведение в AIRiskDilemmas, так и неожиданное рискованное поведение в HarmBench.
English
Detecting AI risks becomes more challenging as stronger models emerge and find novel methods such as Alignment Faking to circumvent these detection attempts. Inspired by how risky behaviors in humans (i.e., illegal activities that may hurt others) are sometimes guided by strongly-held values, we believe that identifying values within AI models can be an early warning system for AI's risky behaviors. We create LitmusValues, an evaluation pipeline to reveal AI models' priorities on a range of AI value classes. Then, we collect AIRiskDilemmas, a diverse collection of dilemmas that pit values against one another in scenarios relevant to AI safety risks such as Power Seeking. By measuring an AI model's value prioritization using its aggregate choices, we obtain a self-consistent set of predicted value priorities that uncover potential risks. We show that values in LitmusValues (including seemingly innocuous ones like Care) can predict for both seen risky behaviors in AIRiskDilemmas and unseen risky behaviors in HarmBench.

Summary

AI-Generated Summary

PDF32May 21, 2025