ChatPaper.aiChatPaper

Os LLMs Podem Aprender Ensinando? Um Estudo Preliminar

Can LLMs Learn by Teaching? A Preliminary Study

June 20, 2024
Autores: Xuefei Ning, Zifu Wang, Shiyao Li, Zinan Lin, Peiran Yao, Tianyu Fu, Matthew B. Blaschko, Guohao Dai, Huazhong Yang, Yu Wang
cs.AI

Resumo

O ensino para melhorar modelos de estudantes (por exemplo, destilação de conhecimento) é uma metodologia amplamente estudada em LLMs. No entanto, para os humanos, o ensino não apenas melhora os alunos, mas também melhora os professores. Perguntamos: Os LLMs também podem aprender ensinando (LbT)? Se sim, podemos potencialmente desbloquear a possibilidade de avançar continuamente os modelos sem depender exclusivamente de dados produzidos por humanos ou modelos mais fortes. Neste artigo, fornecemos uma exploração preliminar dessa agenda ambiciosa. Mostramos que ideias de LbT podem ser incorporadas aos pipelines de treinamento/estímulo de LLM existentes e proporcionar melhorias perceptíveis. Especificamente, projetamos três métodos, cada um imitando um dos três níveis de LbT em humanos: observar o feedback dos alunos, aprender com o feedback e aprender de forma iterativa, com o objetivo de melhorar a precisão das respostas sem treinamento e aprimorar a capacidade inerente dos modelos com ajustes finos. Os resultados são encorajadores. Por exemplo, semelhante ao LbT em humanos, observamos que: (1) LbT pode induzir generalização de fraco para forte: modelos fortes podem se aprimorar ensinando outros modelos fracos; (2) Diversidade nos alunos pode ser benéfica: ensinar vários alunos pode ser melhor do que ensinar um único aluno ou o próprio professor. Esperamos que essa promessa inicial possa inspirar pesquisas futuras sobre LbT e adotar de forma mais ampla técnicas avançadas em educação para melhorar LLMs. O código está disponível em https://github.com/imagination-research/lbt.
English
Teaching to improve student models (e.g., knowledge distillation) is an extensively studied methodology in LLMs. However, for humans, teaching not only improves students but also improves teachers. We ask: Can LLMs also learn by teaching (LbT)? If yes, we can potentially unlock the possibility of continuously advancing the models without solely relying on human-produced data or stronger models. In this paper, we provide a preliminary exploration of this ambitious agenda. We show that LbT ideas can be incorporated into existing LLM training/prompting pipelines and provide noticeable improvements. Specifically, we design three methods, each mimicking one of the three levels of LbT in humans: observing students' feedback, learning from the feedback, and learning iteratively, with the goals of improving answer accuracy without training and improving models' inherent capability with fine-tuning. The findings are encouraging. For example, similar to LbT in human, we see that: (1) LbT can induce weak-to-strong generalization: strong models can improve themselves by teaching other weak models; (2) Diversity in students might help: teaching multiple students could be better than teaching one student or the teacher itself. We hope that this early promise can inspire future research on LbT and more broadly adopting the advanced techniques in education to improve LLMs. The code is available at https://github.com/imagination-research/lbt.
PDF202November 29, 2024