LearnLM : Amélioration de Gemini pour l'apprentissage

LearnLM: Improving Gemini for Learning

December 21, 2024
Auteurs: LearnLM Team, Abhinit Modi, Aditya Srikanth Veerubhotla, Aliya Rysbek, Andrea Huber, Brett Wiltshire, Brian Veprek, Daniel Gillick, Daniel Kasenberg, Derek Ahmed, Irina Jurenka, James Cohan, Jennifer She, Julia Wilkowski, Kaiz Alarakyia, Kevin McKee, Lisa Wang, Markus Kunesch, Mike Schaekermann, Miruna Pîslar, Nikhil Joshi, Parsa Mahmoudieh, Paul Jhun, Sara Wiltberger, Shakir Mohamed, Shashank Agarwal, Shubham Milind Phal, Sun Jae Lee, Theofilos Strinopoulos, Wei-Jen Ko, Amy Wang, Ankit Anand, Avishkar Bhoopchand, Dan Wild, Divya Pandya, Filip Bar, Garth Graham, Holger Winnemoeller, Mahvish Nagda, Prateek Kolhar, Renee Schneider, Shaojian Zhu, Stephanie Chan, Steve Yadlowsky, Viknesh Sounderajah, Yannis Assael
cs.AI

Résumé

Les systèmes d'IA générative actuels sont configurés pour présenter des informations par défaut plutôt que d'engager les utilisateurs au service de l'apprentissage comme le ferait un tuteur humain. Pour répondre à la grande variété de cas d'utilisation éducative potentiels pour ces systèmes, nous reformulons le défi d'injecter un comportement pédagogique comme étant celui de l'instruction pédagogique suivante, où les exemples d'entraînement et d'évaluation incluent des instructions au niveau du système décrivant les attributs pédagogiques spécifiques présents ou souhaités dans les prochains tours de modèle. Ce cadre évite d'engager nos modèles dans une définition particulière de la pédagogie, et permet plutôt aux enseignants ou aux développeurs de spécifier le comportement du modèle souhaité. Cela ouvre également la voie à l'amélioration des modèles Gemini pour l'apprentissage, en permettant l'ajout de nos données pédagogiques aux mélanges post-entraînement, aux côtés de leur ensemble de capacités en expansion rapide. Ces deux aspects représentent des changements importants par rapport à notre rapport technique initial. Nous montrons comment l'entraînement avec l'instruction pédagogique suivante produit un modèle LearnLM (disponible sur Google AI Studio) qui est nettement préféré par des évaluateurs experts à travers un ensemble diversifié de scénarios d'apprentissage, avec des forces de préférence moyennes de 31\% supérieures à GPT-4o, de 11\% supérieures à Claude 3.5, et de 13\% supérieures au modèle Gemini 1.5 Pro sur lequel LearnLM était basé.
English
Today's generative AI systems are tuned to present information by default rather than engage users in service of learning as a human tutor would. To address the wide range of potential education use cases for these systems, we reframe the challenge of injecting pedagogical behavior as one of pedagogical instruction following, where training and evaluation examples include system-level instructions describing the specific pedagogy attributes present or desired in subsequent model turns. This framing avoids committing our models to any particular definition of pedagogy, and instead allows teachers or developers to specify desired model behavior. It also clears a path to improving Gemini models for learning -- by enabling the addition of our pedagogical data to post-training mixtures -- alongside their rapidly expanding set of capabilities. Both represent important changes from our initial tech report. We show how training with pedagogical instruction following produces a LearnLM model (available on Google AI Studio) that is preferred substantially by expert raters across a diverse set of learning scenarios, with average preference strengths of 31\% over GPT-4o, 11\% over Claude 3.5, and 13\% over the Gemini 1.5 Pro model LearnLM was based on.

Summary

AI-Generated Summary

PDF222December 24, 2024