Elster: Ausrichtungsdatensynthese von Grund auf durch Aufforderung von ausgerichteten LLMs ohne etwasMagpie: Alignment Data Synthesis from Scratch by Prompting Aligned LLMs
with Nothing
Die Qualität der Anweisungsdaten ist entscheidend für die Ausrichtung großer Sprachmodelle (LLMs). Obwohl einige Modelle, wie z.B. Llama-3-Instruct, offene Gewichte haben, bleiben ihre Ausrichtungsdaten privat, was die Demokratisierung der KI behindert. Hohe menschliche Arbeitskosten und ein begrenzter, vordefinierter Umfang für Aufforderungen verhindern, dass bestehende Open-Source-Daten-Erstellungsmethoden effektiv skalieren, was die Vielfalt und Qualität öffentlicher Ausrichtungsdatensätze potenziell einschränkt. Ist es möglich, hochwertige Anweisungsdaten im großen Maßstab zu synthetisieren, indem sie direkt aus einem ausgerichteten LLM extrahiert werden? Wir stellen eine Selbstsynthesemethode zur Erzeugung von groß angelegten Ausrichtungsdaten namens Magpie vor. Unsere Schlüsselbeobachtung ist, dass ausgerichtete LLMs wie Llama-3-Instruct eine Benutzerabfrage generieren können, wenn wir nur die linksseitigen Vorlagen bis zur Position eingeben, die für Benutzermitteilungen reserviert ist, dank ihrer autoregressiven Natur. Wir verwenden diese Methode, um Llama-3-Instruct zu fördern und 4 Millionen Anweisungen zusammen mit ihren entsprechenden Antworten zu generieren. Wir führen eine umfassende Analyse der extrahierten Daten durch und wählen 300.000 hochwertige Instanzen aus. Um die Magpie-Daten mit anderen öffentlichen Anweisungsdatensätzen zu vergleichen, feinabstimmen wir Llama-3-8B-Base mit jedem Datensatz und bewerten die Leistung der feinabgestimmten Modelle. Unsere Ergebnisse deuten darauf hin, dass in einigen Aufgaben Modelle, die mit Magpie feinabgestimmt wurden, vergleichbar mit dem offiziellen Llama-3-8B-Instruct abschneiden, obwohl letzteres mit 10 Millionen Datenpunkten durch überwachtes Feintuning (SFT) und anschließendes Feedback-Lernen verbessert wurde. Wir zeigen auch, dass die ausschließliche Verwendung von Magpie für SFT die Leistung früherer öffentlicher Datensätze übertreffen kann, die sowohl für SFT als auch für Präferenzoptimierung genutzt wurden, wie z.B. direkte Präferenzoptimierung mit UltraFeedback. Dieser Vorteil zeigt sich bei Ausrichtungs-Benchmarks wie AlpacaEval, ArenaHard und WildBench.