ChatPaper.aiChatPaper

I Modelli Linguistici di Grandi Dimensioni Possono Imparare Insegnando? Uno Studio Preliminare

Can LLMs Learn by Teaching? A Preliminary Study

June 20, 2024
Autori: Xuefei Ning, Zifu Wang, Shiyao Li, Zinan Lin, Peiran Yao, Tianyu Fu, Matthew B. Blaschko, Guohao Dai, Huazhong Yang, Yu Wang
cs.AI

Abstract

Insegnare per migliorare i modelli degli studenti (ad esempio, la distillazione della conoscenza) è una metodologia ampiamente studiata nei LLM (Large Language Models). Tuttavia, per gli esseri umani, l'insegnamento non solo migliora gli studenti, ma anche gli insegnanti. Ci chiediamo: anche i LLM possono imparare insegnando (Learning by Teaching, LbT)? Se sì, potremmo potenzialmente sbloccare la possibilità di far avanzare continuamente i modelli senza fare affidamento esclusivamente su dati prodotti dall'uomo o su modelli più potenti. In questo articolo, forniamo un'esplorazione preliminare di questo ambizioso obiettivo. Mostriamo che le idee dell'LbT possono essere incorporate nelle pipeline esistenti di addestramento/prompting dei LLM e apportare miglioramenti significativi. Nello specifico, progettiamo tre metodi, ciascuno dei quali imita uno dei tre livelli dell'LbT negli esseri umani: osservare il feedback degli studenti, apprendere dal feedback e apprendere in modo iterativo, con l'obiettivo di migliorare l'accuratezza delle risposte senza addestramento e di migliorare la capacità intrinseca dei modelli con il fine-tuning. I risultati sono incoraggianti. Ad esempio, simile all'LbT negli esseri umani, osserviamo che: (1) LbT può indurre una generalizzazione da debole a forte: i modelli forti possono migliorare se stessi insegnando ad altri modelli deboli; (2) La diversità tra gli studenti potrebbe aiutare: insegnare a più studenti potrebbe essere meglio che insegnare a un solo studente o all'insegnante stesso. Speriamo che questa promessa iniziale possa ispirare future ricerche sull'LbT e un'adozione più ampia delle tecniche avanzate nell'educazione per migliorare i LLM. Il codice è disponibile all'indirizzo https://github.com/imagination-research/lbt.
English
Teaching to improve student models (e.g., knowledge distillation) is an extensively studied methodology in LLMs. However, for humans, teaching not only improves students but also improves teachers. We ask: Can LLMs also learn by teaching (LbT)? If yes, we can potentially unlock the possibility of continuously advancing the models without solely relying on human-produced data or stronger models. In this paper, we provide a preliminary exploration of this ambitious agenda. We show that LbT ideas can be incorporated into existing LLM training/prompting pipelines and provide noticeable improvements. Specifically, we design three methods, each mimicking one of the three levels of LbT in humans: observing students' feedback, learning from the feedback, and learning iteratively, with the goals of improving answer accuracy without training and improving models' inherent capability with fine-tuning. The findings are encouraging. For example, similar to LbT in human, we see that: (1) LbT can induce weak-to-strong generalization: strong models can improve themselves by teaching other weak models; (2) Diversity in students might help: teaching multiple students could be better than teaching one student or the teacher itself. We hope that this early promise can inspire future research on LbT and more broadly adopting the advanced techniques in education to improve LLMs. The code is available at https://github.com/imagination-research/lbt.
PDF212November 29, 2024