LearnLM : Amélioration de Gemini pour l'apprentissage
LearnLM: Improving Gemini for Learning
December 21, 2024
Auteurs: LearnLM Team, Abhinit Modi, Aditya Srikanth Veerubhotla, Aliya Rysbek, Andrea Huber, Brett Wiltshire, Brian Veprek, Daniel Gillick, Daniel Kasenberg, Derek Ahmed, Irina Jurenka, James Cohan, Jennifer She, Julia Wilkowski, Kaiz Alarakyia, Kevin McKee, Lisa Wang, Markus Kunesch, Mike Schaekermann, Miruna Pîslar, Nikhil Joshi, Parsa Mahmoudieh, Paul Jhun, Sara Wiltberger, Shakir Mohamed, Shashank Agarwal, Shubham Milind Phal, Sun Jae Lee, Theofilos Strinopoulos, Wei-Jen Ko, Amy Wang, Ankit Anand, Avishkar Bhoopchand, Dan Wild, Divya Pandya, Filip Bar, Garth Graham, Holger Winnemoeller, Mahvish Nagda, Prateek Kolhar, Renee Schneider, Shaojian Zhu, Stephanie Chan, Steve Yadlowsky, Viknesh Sounderajah, Yannis Assael
cs.AI
Résumé
Les systèmes d'IA générative actuels sont configurés pour présenter des informations par défaut plutôt que d'engager les utilisateurs au service de l'apprentissage comme le ferait un tuteur humain. Pour répondre à la grande variété de cas d'utilisation éducative potentiels pour ces systèmes, nous reformulons le défi d'injecter un comportement pédagogique comme étant celui de l'instruction pédagogique suivante, où les exemples d'entraînement et d'évaluation incluent des instructions au niveau du système décrivant les attributs pédagogiques spécifiques présents ou souhaités dans les prochains tours de modèle. Ce cadre évite d'engager nos modèles dans une définition particulière de la pédagogie, et permet plutôt aux enseignants ou aux développeurs de spécifier le comportement du modèle souhaité. Cela ouvre également la voie à l'amélioration des modèles Gemini pour l'apprentissage, en permettant l'ajout de nos données pédagogiques aux mélanges post-entraînement, aux côtés de leur ensemble de capacités en expansion rapide. Ces deux aspects représentent des changements importants par rapport à notre rapport technique initial. Nous montrons comment l'entraînement avec l'instruction pédagogique suivante produit un modèle LearnLM (disponible sur Google AI Studio) qui est nettement préféré par des évaluateurs experts à travers un ensemble diversifié de scénarios d'apprentissage, avec des forces de préférence moyennes de 31\% supérieures à GPT-4o, de 11\% supérieures à Claude 3.5, et de 13\% supérieures au modèle Gemini 1.5 Pro sur lequel LearnLM était basé.
English
Today's generative AI systems are tuned to present information by default
rather than engage users in service of learning as a human tutor would. To
address the wide range of potential education use cases for these systems, we
reframe the challenge of injecting pedagogical behavior as one of
pedagogical instruction following, where training and evaluation
examples include system-level instructions describing the specific pedagogy
attributes present or desired in subsequent model turns. This framing avoids
committing our models to any particular definition of pedagogy, and instead
allows teachers or developers to specify desired model behavior. It also clears
a path to improving Gemini models for learning -- by enabling the addition of
our pedagogical data to post-training mixtures -- alongside their rapidly
expanding set of capabilities. Both represent important changes from our
initial tech report. We show how training with pedagogical instruction
following produces a LearnLM model (available on Google AI Studio) that is
preferred substantially by expert raters across a diverse set of learning
scenarios, with average preference strengths of 31\% over GPT-4o, 11\% over
Claude 3.5, and 13\% over the Gemini 1.5 Pro model LearnLM was based on.Summary
AI-Generated Summary