ChatPaper.aiChatPaper

Können Modelle Fähigkeiten aus Beispielen erlernen?

Can Models Learn Skill Composition from Examples?

September 29, 2024
Autoren: Haoyu Zhao, Simran Kaur, Dingli Yu, Anirudh Goyal, Sanjeev Arora
cs.AI

Zusammenfassung

Mit der zunehmenden Entwicklung großer Sprachmodell (LLMs) hat ihre Fähigkeit zur Darstellung kompositorischer Generalisierung - die Fähigkeit, erlernte Fähigkeiten auf neuartige Weise zu kombinieren, die während des Trainings nicht aufgetreten sind - erhebliche Aufmerksamkeit erregt. Diese Art der Generalisierung, insbesondere in Szenarien jenseits der Trainingsdaten, ist auch von großem Interesse für die Untersuchung der KI-Sicherheit und -Ausrichtung. Eine kürzlich durchgeführte Studie führte die SKILL-MIX-Bewertung ein, bei der Modelle beauftragt werden, einen kurzen Absatz zu verfassen, der die Verwendung eines bestimmten k-Tupels von Sprachfähigkeiten demonstriert. Während kleine Modelle Schwierigkeiten hatten, selbst bei k=3 zu komponieren, schnitten größere Modelle wie GPT-4 mit k=5 und 6 recht gut ab. In diesem Papier verwenden wir einen Aufbau ähnlich wie SKILL-MIX, um die Fähigkeit kleinerer Modelle zu bewerten, die kompositorische Generalisierung anhand von Beispielen zu erlernen. Unter Verwendung einer vielfältigen Reihe von Sprachfähigkeiten - einschließlich rhetorischer, literarischer, argumentativer, Theorie des Geistes und gesundem Menschenverstand - wurde GPT-4 verwendet, um Textbeispiele zu generieren, die zufällige Teilmengen von k Fähigkeiten aufweisen. Das nachfolgende Feintuning der 7B- und 13B-Parametermodelle auf diesen kombinierten Fähigkeitstexten für steigende Werte von k ergab folgende Erkenntnisse: (1) Das Training auf Kombinationen von k=2 und 3 Fähigkeiten führt zu spürbaren Verbesserungen in der Fähigkeit, Texte mit k=4 und 5 Fähigkeiten zu verfassen, obwohl die Modelle während des Trainings niemals solche Beispiele gesehen haben. (2) Wenn Fähigkeitskategorien in Trainings- und zurückgehaltene Gruppen aufgeteilt werden, verbessern sich die Modelle signifikant beim Verfassen von Texten mit zurückgehaltenen Fähigkeiten während des Tests, obwohl sie während des Feintunings nur Trainingsfähigkeiten gesehen haben, was die Wirksamkeit des Trainingsansatzes auch bei zuvor ungesehenen Fähigkeiten illustriert. Diese Studie legt auch nahe, dass die Einbeziehung fähigkeitsreicher (potenziell synthetischer) Texte in das Training die kompositorischen Fähigkeiten der Modelle erheblich verbessern kann.
English
As large language models (LLMs) become increasingly advanced, their ability to exhibit compositional generalization -- the capacity to combine learned skills in novel ways not encountered during training -- has garnered significant attention. This type of generalization, particularly in scenarios beyond training data, is also of great interest in the study of AI safety and alignment. A recent study introduced the SKILL-MIX evaluation, where models are tasked with composing a short paragraph demonstrating the use of a specified k-tuple of language skills. While small models struggled with composing even with k=3, larger models like GPT-4 performed reasonably well with k=5 and 6. In this paper, we employ a setup akin to SKILL-MIX to evaluate the capacity of smaller models to learn compositional generalization from examples. Utilizing a diverse set of language skills -- including rhetorical, literary, reasoning, theory of mind, and common sense -- GPT-4 was used to generate text samples that exhibit random subsets of k skills. Subsequent fine-tuning of 7B and 13B parameter models on these combined skill texts, for increasing values of k, revealed the following findings: (1) Training on combinations of k=2 and 3 skills results in noticeable improvements in the ability to compose texts with k=4 and 5 skills, despite models never having seen such examples during training. (2) When skill categories are split into training and held-out groups, models significantly improve at composing texts with held-out skills during testing despite having only seen training skills during fine-tuning, illustrating the efficacy of the training approach even with previously unseen skills. This study also suggests that incorporating skill-rich (potentially synthetic) text into training can substantially enhance the compositional capabilities of models.

Summary

AI-Generated Summary

PDF102November 13, 2024