TÜLU 3: Vorstoß in die Grenzbereiche des Open Language Model Post-TrainingsTÜLU 3: Pushing Frontiers in Open Language Model Post-Training
Die Post-Training von Sprachmodellen wird angewendet, um Verhaltensweisen zu verfeinern und neue Fähigkeiten bei einer Vielzahl von aktuellen Sprachmodellen zu erschließen, jedoch hinken offene Anleitungen zur Anwendung dieser Techniken den proprietären hinterher. Die zugrunde liegenden Trainingsdaten und Anleitungen für das Post-Training sind gleichzeitig die wichtigsten Puzzlestücke und der Bereich mit der geringsten Transparenz. Um diese Lücke zu schließen, stellen wir TÜLU 3 vor, eine Familie von vollständig offenen, hochmodernen post-trainierten Modellen, zusammen mit ihren Daten, dem Code und den Trainingsanleitungen, die als umfassender Leitfaden für moderne Post-Training-Techniken dienen. TÜLU 3, das auf den Basismodellen von Llama 3.1 aufbaut, erzielt Ergebnisse, die die instruktiven Versionen von Llama 3.1, Qwen 2.5, Mistral und sogar geschlossene Modelle wie GPT-4o-mini und Claude 3.5-Haiku übertreffen. Die Trainingsalgorithmen für unsere Modelle umfassen überwachtes Feintuning (SFT), Direkte Präferenzoptimierung (DPO) und eine neuartige Methode, die wir Verstärkendes Lernen mit überprüfbaren Belohnungen (RLVR) nennen. Mit TÜLU 3 führen wir ein Multi-Task-Bewertungsschema für Post-Training-Anleitungen mit Entwicklungs- und ungesehenen Bewertungen, Standard-Benchmark-Implementierungen und eine umfangreiche Entkontaminierung vorhandener offener Datensätze zu diesen Benchmarks ein. Wir schließen mit einer Analyse und Diskussion von Trainingsmethoden, die die Leistung nicht zuverlässig verbessert haben. Zusätzlich zu den Modellgewichten und der Demo von TÜLU 3 veröffentlichen wir das vollständige Rezept - einschließlich Datensätzen für verschiedene Kernfähigkeiten, einem robusten Toolkit für die Datenkuratierung und -bewertung, dem Trainingscode und der Infrastruktur sowie, am wichtigsten, einem detaillierten Bericht zur Reproduktion und weiteren Anpassung des Ansatzes von TÜLU 3 an weitere Bereiche.