ChatPaper.aiChatPaper

Les grands modèles pensent de la même manière, ce qui compromet la surveillance de l'IA.

Great Models Think Alike and this Undermines AI Oversight

February 6, 2025
Auteurs: Shashwat Goel, Joschka Struber, Ilze Amanda Auzina, Karuna K Chandra, Ponnurangam Kumaraguru, Douwe Kiela, Ameya Prabhu, Matthias Bethge, Jonas Geiping
cs.AI

Résumé

À mesure que les capacités des Modèles de Langage (LM) progressent, évaluer et superviser ces derniers à grande échelle devient de plus en plus difficile pour les humains. Il y a de l'espoir que d'autres modèles de langage puissent automatiser ces deux tâches, que nous appelons "Surveillance de l'IA". Nous étudions comment la similarité des modèles affecte ces deux aspects de la surveillance de l'IA en proposant une mesure probabiliste de similarité des LM basée sur le chevauchement des erreurs des modèles. En utilisant cette mesure, nous montrons d'abord que les scores du LM-en-tant-que-juge favorisent les modèles similaires au juge, généralisant ainsi les résultats récents d'auto-préférence. Ensuite, nous étudions l'entraînement sur des annotations LM et constatons que la connaissance complémentaire entre le superviseur faible et le modèle étudiant fort joue un rôle crucial dans les gains de "généralisation de faible à fort". À mesure que les capacités des modèles augmentent, il devient plus difficile de trouver leurs erreurs, et nous pourrions alors nous en remettre davantage à la surveillance de l'IA. Cependant, nous observons une tendance préoccupante - les erreurs des modèles deviennent de plus en plus similaires avec l'augmentation des capacités, ce qui soulève des risques de défaillances corrélées. Notre travail souligne l'importance de rendre compte et de corriger la similarité des modèles, notamment dans le paradigme émergent de la surveillance de l'IA.
English
As Language Model (LM) capabilities advance, evaluating and supervising them at scale is getting harder for humans. There is hope that other language models can automate both these tasks, which we refer to as "AI Oversight". We study how model similarity affects both aspects of AI oversight by proposing a probabilistic metric for LM similarity based on overlap in model mistakes. Using this metric, we first show that LLM-as-a-judge scores favor models similar to the judge, generalizing recent self-preference results. Then, we study training on LM annotations, and find complementary knowledge between the weak supervisor and strong student model plays a crucial role in gains from "weak-to-strong generalization". As model capabilities increase, it becomes harder to find their mistakes, and we might defer more to AI oversight. However, we observe a concerning trend -- model mistakes are becoming more similar with increasing capabilities, pointing to risks from correlated failures. Our work underscores the importance of reporting and correcting for model similarity, especially in the emerging paradigm of AI oversight.

Summary

AI-Generated Summary

PDF342February 7, 2025