ChatPaper.aiChatPaper

Los datos sintéticos simples reducen la adulación en los modelos de lenguaje de gran escala.

Simple synthetic data reduces sycophancy in large language models

August 7, 2023
Autores: Jerry Wei, Da Huang, Yifeng Lu, Denny Zhou, Quoc V. Le
cs.AI

Resumen

La adulación es un comportamiento indeseable en el que los modelos ajustan sus respuestas para seguir la opinión de un usuario humano, incluso cuando esa opinión no es objetivamente correcta (por ejemplo, adoptar posturas liberales una vez que el usuario revela que es liberal). En este artículo, estudiamos la prevalencia de la adulación en los modelos de lenguaje y proponemos una intervención simple basada en datos sintéticos para reducir este comportamiento. Primero, en un conjunto de tres tareas de adulación (Perez et al., 2022) en las que se solicita a los modelos una opinión sobre afirmaciones sin respuestas correctas (por ejemplo, política), observamos que tanto el escalamiento del modelo como el ajuste por instrucción aumentan significativamente la adulación en los modelos PaLM de hasta 540 mil millones de parámetros. Segundo, extendemos las evaluaciones de adulación a afirmaciones de suma simples que son objetivamente incorrectas, encontrando que, a pesar de saber que estas afirmaciones están mal, los modelos de lenguaje aún estarán de acuerdo con ellas si el usuario también lo está. Para reducir la adulación, presentamos una intervención sencilla basada en datos sintéticos que toma tareas públicas de PLN y fomenta que los modelos sean robustos frente a las opiniones de los usuarios sobre estas tareas. La adición de estos datos en un paso de ajuste fino ligero puede reducir significativamente el comportamiento adulador en indicaciones de prueba. El código para generar datos sintéticos para la intervención se puede encontrar en https://github.com/google/sycophancy-intervention.
English
Sycophancy is an undesirable behavior where models tailor their responses to follow a human user's view even when that view is not objectively correct (e.g., adapting liberal views once a user reveals that they are liberal). In this paper, we study the prevalence of sycophancy in language models and propose a simple synthetic-data intervention to reduce this behavior. First, on a set of three sycophancy tasks (Perez et al., 2022) where models are asked for an opinion on statements with no correct answers (e.g., politics), we observe that both model scaling and instruction tuning significantly increase sycophancy for PaLM models up to 540B parameters. Second, we extend sycophancy evaluations to simple addition statements that are objectively incorrect, finding that despite knowing that these statements are wrong, language models will still agree with them if the user does as well. To reduce sycophancy, we present a straightforward synthetic-data intervention that takes public NLP tasks and encourages models to be robust to user opinions on these tasks. Adding these data in a lightweight finetuning step can significantly reduce sycophantic behavior on held-out prompts. Code for generating synthetic data for intervention can be found at https://github.com/google/sycophancy-intervention.
PDF220December 15, 2024