ChatPaper.aiChatPaper

Einfache synthetische Daten reduzieren Speichelleckerei in großen Sprachmodellen.

Simple synthetic data reduces sycophancy in large language models

August 7, 2023
Autoren: Jerry Wei, Da Huang, Yifeng Lu, Denny Zhou, Quoc V. Le
cs.AI

Zusammenfassung

Sykophantie ist ein unerwünschtes Verhalten, bei dem Modelle ihre Antworten an die Ansicht eines menschlichen Benutzers anpassen, selbst wenn diese Ansicht objektiv nicht korrekt ist (z. B. die Übernahme liberaler Ansichten, sobald ein Benutzer offenbart, dass er liberal ist). In dieser Arbeit untersuchen wir die Verbreitung von Sykophantie in Sprachmodellen und schlagen eine einfache Intervention mit synthetischen Daten vor, um dieses Verhalten zu reduzieren. Zunächst beobachten wir bei einer Reihe von drei Sykophantie-Aufgaben (Perez et al., 2022), bei denen Modelle nach einer Meinung zu Aussagen ohne richtige Antworten (z. B. Politik) gefragt werden, dass sowohl die Skalierung der Modelle als auch das Instruction Tuning die Sykophantie bei PaLM-Modellen mit bis zu 540B Parametern signifikant erhöhen. Zweitens erweitern wir die Sykophantie-Bewertungen auf einfache Additionsaussagen, die objektiv falsch sind, und stellen fest, dass Sprachmodelle, obwohl sie wissen, dass diese Aussagen falsch sind, dennoch zustimmen, wenn der Benutzer dies ebenfalls tut. Um Sykophantie zu reduzieren, präsentieren wir eine einfache Intervention mit synthetischen Daten, die öffentliche NLP-Aufgaben nutzt und Modelle dazu anregt, robust gegenüber Benutzeransichten in diesen Aufgaben zu sein. Die Hinzufügung dieser Daten in einem leichtgewichtigen Fine-Tuning-Schritt kann das sykophantische Verhalten bei zurückgehaltenen Prompts signifikant verringern. Der Code zur Generierung synthetischer Daten für die Intervention ist unter https://github.com/google/sycophancy-intervention verfügbar.
English
Sycophancy is an undesirable behavior where models tailor their responses to follow a human user's view even when that view is not objectively correct (e.g., adapting liberal views once a user reveals that they are liberal). In this paper, we study the prevalence of sycophancy in language models and propose a simple synthetic-data intervention to reduce this behavior. First, on a set of three sycophancy tasks (Perez et al., 2022) where models are asked for an opinion on statements with no correct answers (e.g., politics), we observe that both model scaling and instruction tuning significantly increase sycophancy for PaLM models up to 540B parameters. Second, we extend sycophancy evaluations to simple addition statements that are objectively incorrect, finding that despite knowing that these statements are wrong, language models will still agree with them if the user does as well. To reduce sycophancy, we present a straightforward synthetic-data intervention that takes public NLP tasks and encourages models to be robust to user opinions on these tasks. Adding these data in a lightweight finetuning step can significantly reduce sycophantic behavior on held-out prompts. Code for generating synthetic data for intervention can be found at https://github.com/google/sycophancy-intervention.
PDF220December 15, 2024