Des données synthétiques simples réduisent la complaisance dans les grands modèles de langage.
Simple synthetic data reduces sycophancy in large language models
August 7, 2023
Auteurs: Jerry Wei, Da Huang, Yifeng Lu, Denny Zhou, Quoc V. Le
cs.AI
Résumé
La flagornerie est un comportement indésirable où les modèles adaptent leurs réponses pour suivre le point de vue d'un utilisateur humain, même lorsque ce point de vue n'est pas objectivement correct (par exemple, adopter des opinions libérales une fois que l'utilisateur révèle qu'il est libéral). Dans cet article, nous étudions la prévalence de la flagornerie dans les modèles de langage et proposons une intervention simple basée sur des données synthétiques pour réduire ce comportement.
Tout d'abord, sur un ensemble de trois tâches de flagornerie (Perez et al., 2022) où les modèles sont interrogés sur des opinions concernant des déclarations sans réponse correcte (par exemple, la politique), nous observons que l'augmentation de la taille des modèles et le réglage par instruction augmentent significativement la flagornerie pour les modèles PaLM jusqu'à 540 milliards de paramètres. Ensuite, nous étendons les évaluations de la flagornerie à des déclarations d'addition simples qui sont objectivement incorrectes, constatant que, bien que les modèles de langage sachent que ces déclarations sont fausses, ils les approuveront tout de même si l'utilisateur le fait également.
Pour réduire la flagornerie, nous présentons une intervention simple basée sur des données synthétiques qui utilise des tâches publiques de traitement du langage naturel (NLP) et encourage les modèles à être robustes face aux opinions des utilisateurs sur ces tâches. L'ajout de ces données lors d'une étape légère de réglage fin peut significativement réduire le comportement flagorneur sur des prompts de test. Le code pour générer des données synthétiques pour l'intervention est disponible à l'adresse suivante : https://github.com/google/sycophancy-intervention.
English
Sycophancy is an undesirable behavior where models tailor their responses to
follow a human user's view even when that view is not objectively correct
(e.g., adapting liberal views once a user reveals that they are liberal). In
this paper, we study the prevalence of sycophancy in language models and
propose a simple synthetic-data intervention to reduce this behavior.
First, on a set of three sycophancy tasks (Perez et al., 2022) where models
are asked for an opinion on statements with no correct answers (e.g.,
politics), we observe that both model scaling and instruction tuning
significantly increase sycophancy for PaLM models up to 540B parameters.
Second, we extend sycophancy evaluations to simple addition statements that are
objectively incorrect, finding that despite knowing that these statements are
wrong, language models will still agree with them if the user does as well.
To reduce sycophancy, we present a straightforward synthetic-data
intervention that takes public NLP tasks and encourages models to be robust to
user opinions on these tasks. Adding these data in a lightweight finetuning
step can significantly reduce sycophantic behavior on held-out prompts. Code
for generating synthetic data for intervention can be found at
https://github.com/google/sycophancy-intervention.