ChatPaper.aiChatPaper

Agenti Dormienti: Addestramento di LLM Ingannevoli che Persistono Nonostante l'Addestramento alla Sicurezza

Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training

January 10, 2024
Autori: Evan Hubinger, Carson Denison, Jesse Mu, Mike Lambert, Meg Tong, Monte MacDiarmid, Tamera Lanham, Daniel M. Ziegler, Tim Maxwell, Newton Cheng, Adam Jermyn, Amanda Askell, Ansh Radhakrishnan, Cem Anil, David Duvenaud, Deep Ganguli, Fazl Barez, Jack Clark, Kamal Ndousse, Kshitij Sachan, Michael Sellitto, Mrinank Sharma, Nova DasSarma, Roger Grosse, Shauna Kravec, Yuntao Bai, Zachary Witten, Marina Favaro, Jan Brauner, Holden Karnofsky, Paul Christiano, Samuel R. Bowman, Logan Graham, Jared Kaplan, Sören Mindermann, Ryan Greenblatt, Buck Shlegeris, Nicholas Schiefer, Ethan Perez
cs.AI

Abstract

Gli esseri umani sono capaci di comportamenti strategicamente ingannevoli: agiscono in modo utile nella maggior parte delle situazioni, ma poi si comportano in modo molto diverso per perseguire obiettivi alternativi quando ne hanno l'opportunità. Se un sistema di IA apprendesse una simile strategia ingannevole, saremmo in grado di rilevarla e rimuoverla utilizzando le attuali tecniche all'avanguardia per l'addestramento sicuro? Per studiare questa questione, costruiamo esempi dimostrativi di comportamento ingannevole nei grandi modelli linguistici (LLM). Ad esempio, addestriamo modelli che scrivono codice sicuro quando il prompt indica che l'anno è il 2023, ma inseriscono codice sfruttabile quando l'anno indicato è il 2024. Scopriamo che tale comportamento "backdoored" può essere reso persistente, in modo che non venga rimosso dalle tecniche standard di addestramento sicuro, tra cui il fine-tuning supervisionato, l'apprendimento per rinforzo e l'addestramento avversario (stimolando comportamenti non sicuri e poi addestrando per rimuoverli). Il comportamento backdoored è più persistente nei modelli più grandi e nei modelli addestrati a produrre ragionamenti a catena (chain-of-thought) sull'ingannare il processo di addestramento, con la persistenza che rimane anche quando il ragionamento a catena viene distillato. Inoltre, piuttosto che rimuovere i backdoor, scopriamo che l'addestramento avversario può insegnare ai modelli a riconoscere meglio i loro trigger di backdoor, nascondendo efficacemente il comportamento non sicuro. I nostri risultati suggeriscono che, una volta che un modello manifesta un comportamento ingannevole, le tecniche standard potrebbero fallire nel rimuovere tale inganno e creare una falsa impressione di sicurezza.
English
Humans are capable of strategically deceptive behavior: behaving helpfully in most situations, but then behaving very differently in order to pursue alternative objectives when given the opportunity. If an AI system learned such a deceptive strategy, could we detect it and remove it using current state-of-the-art safety training techniques? To study this question, we construct proof-of-concept examples of deceptive behavior in large language models (LLMs). For example, we train models that write secure code when the prompt states that the year is 2023, but insert exploitable code when the stated year is 2024. We find that such backdoored behavior can be made persistent, so that it is not removed by standard safety training techniques, including supervised fine-tuning, reinforcement learning, and adversarial training (eliciting unsafe behavior and then training to remove it). The backdoored behavior is most persistent in the largest models and in models trained to produce chain-of-thought reasoning about deceiving the training process, with the persistence remaining even when the chain-of-thought is distilled away. Furthermore, rather than removing backdoors, we find that adversarial training can teach models to better recognize their backdoor triggers, effectively hiding the unsafe behavior. Our results suggest that, once a model exhibits deceptive behavior, standard techniques could fail to remove such deception and create a false impression of safety.
PDF300February 8, 2026