ChatPaper.aiChatPaper

Grandes modelos piensan de manera similar y esto socava la supervisión de la IA.

Great Models Think Alike and this Undermines AI Oversight

February 6, 2025
Autores: Shashwat Goel, Joschka Struber, Ilze Amanda Auzina, Karuna K Chandra, Ponnurangam Kumaraguru, Douwe Kiela, Ameya Prabhu, Matthias Bethge, Jonas Geiping
cs.AI

Resumen

A medida que avanzan las capacidades del Modelo de Lenguaje (LM), evaluar y supervisarlos a gran escala se vuelve más difícil para los humanos. Existe la esperanza de que otros modelos de lenguaje puedan automatizar ambas tareas, a las que nos referimos como "Supervisión de IA". Estudiamos cómo la similitud entre modelos afecta ambos aspectos de la supervisión de IA al proponer una métrica probabilística para la similitud de LM basada en la superposición de errores del modelo. Utilizando esta métrica, primero demostramos que las puntuaciones de LLM-como-juez favorecen a los modelos similares al juez, generalizando resultados recientes de auto-preferencia. Luego, estudiamos el entrenamiento en anotaciones de LM y encontramos que el conocimiento complementario entre el supervisor débil y el modelo estudiante fuerte desempeña un papel crucial en las ganancias de "generalización de débil a fuerte". A medida que las capacidades del modelo aumentan, se vuelve más difícil encontrar sus errores, y es posible que deleguemos más en la supervisión de IA. Sin embargo, observamos una tendencia preocupante: los errores del modelo se vuelven más similares con capacidades crecientes, lo que señala riesgos de fallos correlacionados. Nuestro trabajo subraya la importancia de informar y corregir la similitud entre modelos, especialmente en el paradigma emergente de la supervisión de IA.
English
As Language Model (LM) capabilities advance, evaluating and supervising them at scale is getting harder for humans. There is hope that other language models can automate both these tasks, which we refer to as "AI Oversight". We study how model similarity affects both aspects of AI oversight by proposing a probabilistic metric for LM similarity based on overlap in model mistakes. Using this metric, we first show that LLM-as-a-judge scores favor models similar to the judge, generalizing recent self-preference results. Then, we study training on LM annotations, and find complementary knowledge between the weak supervisor and strong student model plays a crucial role in gains from "weak-to-strong generalization". As model capabilities increase, it becomes harder to find their mistakes, and we might defer more to AI oversight. However, we observe a concerning trend -- model mistakes are becoming more similar with increasing capabilities, pointing to risks from correlated failures. Our work underscores the importance of reporting and correcting for model similarity, especially in the emerging paradigm of AI oversight.

Summary

AI-Generated Summary

PDF342February 7, 2025