Kritik am Feintuning: Das Erlernen von Kritik ist effektiver als das Erlernen von Imitation.Critique Fine-Tuning: Learning to Critique is More Effective than
Learning to Imitate
Überwachtes Feinabstimmung (SFT) wird häufig verwendet, um Sprachmodelle darauf zu trainieren, annotierte Antworten für gegebene Anweisungen zu imitieren. In diesem Paper fordern wir dieses Paradigma heraus und schlagen Kritik-Feinabstimmung (CFT) vor, eine Strategie, bei der Modelle lernen, fehlerhafte Antworten zu kritisieren, anstatt einfach korrekte zu imitieren. Inspiriert von menschlichen Lernprozessen, die kritisches Denken betonen, fördert CFT eine tiefere Analyse und nuancierteres Verständnis - Eigenschaften, die oft von Standard-SFT übersehen werden. Zur Validierung der Wirksamkeit von CFT erstellen wir einen Datensatz mit 50.000 Beispielen aus WebInstruct, wobei GPT-4o als Lehrer verwendet wird, um Kritiken in Form von (Eingabe=[Abfrage; fehlerhafte Antwort], Ausgabe=Kritik) zu generieren. CFT auf diesem Datensatz führt zu einer konsistenten Verbesserung von 4-10% gegenüber SFT auf sechs Mathe-Benchmarks mit verschiedenen Basismodellen wie Qwen2.5, Qwen2.5-Math und DeepSeek-Math. Wir erweitern weiter zu MetaMath und NuminaMath Datensätzen und beobachten ähnliche Verbesserungen gegenüber SFT. Bemerkenswert ist, dass unser Qwen2.5-Math-CFT-Modell, das nur mit 50.000 Beispielen trainiert wurde, mit oder übertrifft Wettbewerbsmodelle wie AceMath und Qwen2.5-Math-Instruct auf den meisten Benchmarks, die jeweils über 2 Millionen Beispiele verwenden. Ablationsstudien zeigen, dass CFT robust gegenüber der Quelle der fehlerhaften Antwort und dem Lehrerkritikmodell ist. Anhand dieser Ergebnisse argumentieren wir, dass ein auf Kritik basierendes Training eine effektivere Alternative bietet, um das Denken von Sprachmodellen voranzutreiben.