ChatPaper.aiChatPaper

Grandes modelos pensam de forma semelhante e isso mina a supervisão de IA.

Great Models Think Alike and this Undermines AI Oversight

February 6, 2025
Autores: Shashwat Goel, Joschka Struber, Ilze Amanda Auzina, Karuna K Chandra, Ponnurangam Kumaraguru, Douwe Kiela, Ameya Prabhu, Matthias Bethge, Jonas Geiping
cs.AI

Resumo

À medida que as capacidades do Modelo de Linguagem (LM) avançam, avaliar e supervisioná-los em grande escala está se tornando mais difícil para os humanos. Há esperança de que outros modelos de linguagem possam automatizar essas tarefas, o que chamamos de "Supervisão de IA". Estudamos como a similaridade entre modelos afeta ambos os aspectos da supervisão de IA, propondo uma métrica probabilística para a similaridade de LM com base na sobreposição de erros do modelo. Usando essa métrica, mostramos inicialmente que as pontuações de LLM-como-juiz favorecem modelos similares ao juiz, generalizando resultados recentes de auto-preferência. Em seguida, estudamos o treinamento em anotações de LM e encontramos que o conhecimento complementar entre o supervisor fraco e o modelo de aluno forte desempenha um papel crucial nos ganhos da "generalização de fraco para forte". À medida que as capacidades do modelo aumentam, torna-se mais difícil identificar seus erros, e podemos depender mais da supervisão de IA. No entanto, observamos uma tendência preocupante - os erros do modelo estão se tornando mais semelhantes com o aumento das capacidades, apontando para riscos de falhas correlacionadas. Nosso trabalho destaca a importância de relatar e corrigir a similaridade de modelos, especialmente no paradigma emergente de supervisão de IA.
English
As Language Model (LM) capabilities advance, evaluating and supervising them at scale is getting harder for humans. There is hope that other language models can automate both these tasks, which we refer to as "AI Oversight". We study how model similarity affects both aspects of AI oversight by proposing a probabilistic metric for LM similarity based on overlap in model mistakes. Using this metric, we first show that LLM-as-a-judge scores favor models similar to the judge, generalizing recent self-preference results. Then, we study training on LM annotations, and find complementary knowledge between the weak supervisor and strong student model plays a crucial role in gains from "weak-to-strong generalization". As model capabilities increase, it becomes harder to find their mistakes, and we might defer more to AI oversight. However, we observe a concerning trend -- model mistakes are becoming more similar with increasing capabilities, pointing to risks from correlated failures. Our work underscores the importance of reporting and correcting for model similarity, especially in the emerging paradigm of AI oversight.

Summary

AI-Generated Summary

PDF342February 7, 2025