ChatPaper.aiChatPaper

¿Pueden los LLMs aprender enseñando? Un estudio preliminar

Can LLMs Learn by Teaching? A Preliminary Study

June 20, 2024
Autores: Xuefei Ning, Zifu Wang, Shiyao Li, Zinan Lin, Peiran Yao, Tianyu Fu, Matthew B. Blaschko, Guohao Dai, Huazhong Yang, Yu Wang
cs.AI

Resumen

Enseñar para mejorar los modelos de estudiantes (por ejemplo, la destilación de conocimiento) es una metodología ampliamente estudiada en los LLM (Modelos de Lenguaje de Gran Escala). Sin embargo, para los humanos, enseñar no solo mejora a los estudiantes, sino también a los profesores. Nos preguntamos: ¿Pueden los LLM también aprender enseñando (LbT, por sus siglas en inglés)? De ser así, podríamos desbloquear la posibilidad de avanzar continuamente los modelos sin depender únicamente de datos producidos por humanos o modelos más fuertes. En este artículo, proporcionamos una exploración preliminar de esta ambiciosa agenda. Mostramos que las ideas de LbT pueden incorporarse en los flujos de trabajo existentes de entrenamiento/prompting de LLM y ofrecer mejoras notables. Específicamente, diseñamos tres métodos, cada uno imitando uno de los tres niveles de LbT en humanos: observar el feedback de los estudiantes, aprender del feedback y aprender de manera iterativa, con el objetivo de mejorar la precisión de las respuestas sin entrenamiento y mejorar la capacidad inherente de los modelos mediante fine-tuning. Los hallazgos son alentadores. Por ejemplo, similar al LbT en humanos, observamos que: (1) LbT puede inducir una generalización de débil a fuerte: los modelos fuertes pueden mejorarse a sí mismos enseñando a otros modelos débiles; (2) La diversidad en los estudiantes podría ayudar: enseñar a múltiples estudiantes podría ser mejor que enseñar a un solo estudiante o al propio profesor. Esperamos que esta promesa inicial pueda inspirar futuras investigaciones sobre LbT y, en general, la adopción de técnicas avanzadas en educación para mejorar los LLM. El código está disponible en https://github.com/imagination-research/lbt.
English
Teaching to improve student models (e.g., knowledge distillation) is an extensively studied methodology in LLMs. However, for humans, teaching not only improves students but also improves teachers. We ask: Can LLMs also learn by teaching (LbT)? If yes, we can potentially unlock the possibility of continuously advancing the models without solely relying on human-produced data or stronger models. In this paper, we provide a preliminary exploration of this ambitious agenda. We show that LbT ideas can be incorporated into existing LLM training/prompting pipelines and provide noticeable improvements. Specifically, we design three methods, each mimicking one of the three levels of LbT in humans: observing students' feedback, learning from the feedback, and learning iteratively, with the goals of improving answer accuracy without training and improving models' inherent capability with fine-tuning. The findings are encouraging. For example, similar to LbT in human, we see that: (1) LbT can induce weak-to-strong generalization: strong models can improve themselves by teaching other weak models; (2) Diversity in students might help: teaching multiple students could be better than teaching one student or the teacher itself. We hope that this early promise can inspire future research on LbT and more broadly adopting the advanced techniques in education to improve LLMs. The code is available at https://github.com/imagination-research/lbt.

Summary

AI-Generated Summary

PDF202November 29, 2024