ChatPaper.aiChatPaper

Verbales Sampling: Wie man Modus-Kollaps abmildert und die Diversität von LLMs freisetzt

Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity

October 1, 2025
papers.authors: Jiayi Zhang, Simon Yu, Derek Chong, Anthony Sicilia, Michael R. Tomz, Christopher D. Manning, Weiyan Shi
cs.AI

papers.abstract

Die Nachschulungsausrichtung reduziert oft die Diversität von LLMs, was zu einem Phänomen führt, das als Modus-Kollaps bekannt ist. Im Gegensatz zu früheren Arbeiten, die diesen Effekt auf algorithmische Beschränkungen zurückführen, identifizieren wir einen grundlegenden, allgegenwärtigen datenbasierten Treiber: die Typikalitätsverzerrung in Präferenzdaten, bei der Annotatoren systematisch vertrauten Text bevorzugen, was auf gut etablierte Erkenntnisse der kognitiven Psychologie zurückzuführen ist. Wir formalisieren diese Verzerrung theoretisch, überprüfen sie empirisch anhand von Präferenzdatensätzen und zeigen, dass sie eine zentrale Rolle beim Modus-Kollaps spielt. Motiviert durch diese Analyse führen wir Verbalized Sampling (VS) ein, eine einfache, trainingsfreie Prompting-Strategie, um den Modus-Kollaps zu umgehen. VS fordert das Modell auf, eine Wahrscheinlichkeitsverteilung über eine Reihe von Antworten zu verbalisieren (z. B. „Generiere 5 Witze über Kaffee und ihre entsprechenden Wahrscheinlichkeiten“). Umfassende Experimente zeigen, dass VS die Leistung in den Bereichen kreatives Schreiben (Gedichte, Geschichten, Witze), Dialogsimulation, offene Frage-Antwort-Systeme und synthetische Datengenerierung erheblich verbessert, ohne dabei die faktische Genauigkeit und Sicherheit zu opfern. Beispielsweise steigert VS im kreativen Schreiben die Diversität um das 1,6- bis 2,1-fache im Vergleich zum direkten Prompting. Wir beobachten weiterhin einen aufkommenden Trend, dass leistungsfähigere Modelle stärker von VS profitieren. Zusammenfassend bietet unsere Arbeit eine neue datenzentrierte Perspektive auf den Modus-Kollaps und ein praktisches Inferenzzeit-Mittel, das hilft, die vorab trainierte generative Diversität freizusetzen.
English
Post-training alignment often reduces LLM diversity, leading to a phenomenon known as mode collapse. Unlike prior work that attributes this effect to algorithmic limitations, we identify a fundamental, pervasive data-level driver: typicality bias in preference data, whereby annotators systematically favor familiar text as a result of well-established findings in cognitive psychology. We formalize this bias theoretically, verify it on preference datasets empirically, and show that it plays a central role in mode collapse. Motivated by this analysis, we introduce Verbalized Sampling, a simple, training-free prompting strategy to circumvent mode collapse. VS prompts the model to verbalize a probability distribution over a set of responses (e.g., ``Generate 5 jokes about coffee and their corresponding probabilities''). Comprehensive experiments show that VS significantly improves performance across creative writing (poems, stories, jokes), dialogue simulation, open-ended QA, and synthetic data generation, without sacrificing factual accuracy and safety. For instance, in creative writing, VS increases diversity by 1.6-2.1x over direct prompting. We further observe an emergent trend that more capable models benefit more from VS. In sum, our work provides a new data-centric perspective on mode collapse and a practical inference-time remedy that helps unlock pre-trained generative diversity.
PDF153October 15, 2025