ChatPaper.aiChatPaper

Können LLMs durch Lehren lernen? Eine Vorstudie.

Can LLMs Learn by Teaching? A Preliminary Study

June 20, 2024
Autoren: Xuefei Ning, Zifu Wang, Shiyao Li, Zinan Lin, Peiran Yao, Tianyu Fu, Matthew B. Blaschko, Guohao Dai, Huazhong Yang, Yu Wang
cs.AI

Zusammenfassung

Das Lehren zur Verbesserung von Schülermodellen (z. B. Wissensvermittlung) ist eine umfassend untersuchte Methodik in LLMs. Allerdings verbessert das Lehren für Menschen nicht nur die Schüler, sondern auch die Lehrer. Wir fragen: Können LLMs auch durch Lehren lernen (LbT)? Wenn ja, könnten wir potenziell die Möglichkeit erschließen, die Modelle kontinuierlich weiterzuentwickeln, ohne ausschließlich auf menschenerzeugte Daten oder stärkere Modelle angewiesen zu sein. In diesem Papier bieten wir eine vorläufige Erkundung dieser ehrgeizigen Agenda an. Wir zeigen, dass LbT-Ideen in bestehende LLM-Trainings-/Aufforderungspipelines integriert werden können und deutliche Verbesserungen liefern. Konkret entwerfen wir drei Methoden, die jeweils eine der drei Ebenen des LbT bei Menschen nachahmen: Beobachten des Feedbacks der Schüler, Lernen aus dem Feedback und iteratives Lernen, mit dem Ziel, die Antwortgenauigkeit ohne Training zu verbessern und die inhärente Fähigkeit der Modelle durch Feinabstimmung zu verbessern. Die Ergebnisse sind vielversprechend. Beispielsweise sehen wir ähnlich wie beim LbT bei Menschen, dass: (1) LbT eine schwache-zu-starke Verallgemeinerung induzieren kann: Starke Modelle können sich verbessern, indem sie anderen schwachen Modellen beibringen; (2) Vielfalt bei den Schülern hilfreich sein könnte: Das Unterrichten mehrerer Schüler könnte besser sein als das Unterrichten eines Schülers oder des Lehrers selbst. Wir hoffen, dass dieses frühe Versprechen zukünftige Forschung zu LbT inspirieren und die breitere Übernahme fortschrittlicher Techniken in der Bildung zur Verbesserung von LLMs fördern kann. Der Code ist verfügbar unter https://github.com/imagination-research/lbt.
English
Teaching to improve student models (e.g., knowledge distillation) is an extensively studied methodology in LLMs. However, for humans, teaching not only improves students but also improves teachers. We ask: Can LLMs also learn by teaching (LbT)? If yes, we can potentially unlock the possibility of continuously advancing the models without solely relying on human-produced data or stronger models. In this paper, we provide a preliminary exploration of this ambitious agenda. We show that LbT ideas can be incorporated into existing LLM training/prompting pipelines and provide noticeable improvements. Specifically, we design three methods, each mimicking one of the three levels of LbT in humans: observing students' feedback, learning from the feedback, and learning iteratively, with the goals of improving answer accuracy without training and improving models' inherent capability with fine-tuning. The findings are encouraging. For example, similar to LbT in human, we see that: (1) LbT can induce weak-to-strong generalization: strong models can improve themselves by teaching other weak models; (2) Diversity in students might help: teaching multiple students could be better than teaching one student or the teacher itself. We hope that this early promise can inspire future research on LbT and more broadly adopting the advanced techniques in education to improve LLMs. The code is available at https://github.com/imagination-research/lbt.

Summary

AI-Generated Summary

PDF202November 29, 2024