ChatPaper.aiChatPaper

TeacherLM: Leren vissen in plaats van vis geven, ook bij taalmodelering

TeacherLM: Teaching to Fish Rather Than Giving the Fish, Language Modeling Likewise

October 29, 2023
Auteurs: Nan He, Hanyu Lai, Chenyang Zhao, Zirui Cheng, Junting Pan, Ruoyu Qin, Ruofan Lu, Rui Lu, Yunchen Zhang, Gangming Zhao, Zhaohui Hou, Zhiyuan Huang, Shaoqing Lu, Ding Liang, Mingjie Zhan
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) vertonen indrukwekkende redeneer- en data-augmentatiecapaciteiten in diverse NLP-taken. Maar hoe zit het met kleine modellen? In dit werk stellen we TeacherLM-7.1B voor, dat in staat is om relevante basisprincipes, denkprocessen en veelvoorkomende fouten te annoteren voor de meeste NLP-voorbeelden, waardoor annotatie meer wordt dan alleen een antwoord. Hierdoor kunnen andere modellen leren "waarom" in plaats van alleen "wat". Het TeacherLM-7.1B-model behaalde een zero-shot score van 52.3 op MMLU, waarmee het de meeste modellen met meer dan 100B parameters overtreft. Nog opmerkelijker is zijn data-augmentatievermogen. Op basis van TeacherLM-7.1B hebben we 58 NLP-datasets uitgebreid en verschillende studentmodellen met uiteenlopende parameters uit de OPT- en BLOOM-series getraind in een multi-task omgeving. De experimentele resultaten tonen aan dat de data-augmentatie door TeacherLM aanzienlijke voordelen heeft opgeleverd. We zullen de TeacherLM-serie van modellen en uitgebreide datasets als open-source vrijgeven.
English
Large Language Models (LLMs) exhibit impressive reasoning and data augmentation capabilities in various NLP tasks. However, what about small models? In this work, we propose TeacherLM-7.1B, capable of annotating relevant fundamentals, chain of thought, and common mistakes for most NLP samples, which makes annotation more than just an answer, thus allowing other models to learn "why" instead of just "what". The TeacherLM-7.1B model achieved a zero-shot score of 52.3 on MMLU, surpassing most models with over 100B parameters. Even more remarkable is its data augmentation ability. Based on TeacherLM-7.1B, we augmented 58 NLP datasets and taught various student models with different parameters from OPT and BLOOM series in a multi-task setting. The experimental results indicate that the data augmentation provided by TeacherLM has brought significant benefits. We will release the TeacherLM series of models and augmented datasets as open-source.
PDF93February 8, 2026