ChatPaper.aiChatPaper

A IA Mentirá para Salvar Crianças Doentes? Testando a Priorização de Valores da IA com AIRiskDilemmas

Will AI Tell Lies to Save Sick Children? Litmus-Testing AI Values Prioritization with AIRiskDilemmas

May 20, 2025
Autores: Yu Ying Chiu, Zhilin Wang, Sharan Maiya, Yejin Choi, Kyle Fish, Sydney Levine, Evan Hubinger
cs.AI

Resumo

A detecção de riscos de IA torna-se mais desafiadora à medida que modelos mais poderosos surgem e encontram métodos inovadores, como o Falsificação de Alinhamento, para contornar essas tentativas de detecção. Inspirados pela forma como comportamentos de risco em humanos (ou seja, atividades ilegais que podem prejudicar outros) são às vezes guiados por valores fortemente arraigados, acreditamos que identificar valores dentro de modelos de IA pode ser um sistema de alerta precoce para comportamentos de risco da IA. Criamos o LitmusValues, um pipeline de avaliação para revelar as prioridades dos modelos de IA em uma variedade de classes de valores de IA. Em seguida, coletamos o AIRiskDilemmas, uma coleção diversificada de dilemas que colocam valores em conflito em cenários relevantes para riscos de segurança de IA, como a Busca de Poder. Ao medir a priorização de valores de um modelo de IA usando suas escolhas agregadas, obtemos um conjunto autocoerente de prioridades de valores previstas que revelam potenciais riscos. Mostramos que os valores no LitmusValues (incluindo aqueles aparentemente inócuos, como Cuidado) podem prever tanto comportamentos de risco observados no AIRiskDilemmas quanto comportamentos de risco não observados no HarmBench.
English
Detecting AI risks becomes more challenging as stronger models emerge and find novel methods such as Alignment Faking to circumvent these detection attempts. Inspired by how risky behaviors in humans (i.e., illegal activities that may hurt others) are sometimes guided by strongly-held values, we believe that identifying values within AI models can be an early warning system for AI's risky behaviors. We create LitmusValues, an evaluation pipeline to reveal AI models' priorities on a range of AI value classes. Then, we collect AIRiskDilemmas, a diverse collection of dilemmas that pit values against one another in scenarios relevant to AI safety risks such as Power Seeking. By measuring an AI model's value prioritization using its aggregate choices, we obtain a self-consistent set of predicted value priorities that uncover potential risks. We show that values in LitmusValues (including seemingly innocuous ones like Care) can predict for both seen risky behaviors in AIRiskDilemmas and unseen risky behaviors in HarmBench.
PDF32December 16, 2025