LearnLM: Mejorando Gemini para el Aprendizaje
LearnLM: Improving Gemini for Learning
December 21, 2024
Autores: LearnLM Team, Abhinit Modi, Aditya Srikanth Veerubhotla, Aliya Rysbek, Andrea Huber, Brett Wiltshire, Brian Veprek, Daniel Gillick, Daniel Kasenberg, Derek Ahmed, Irina Jurenka, James Cohan, Jennifer She, Julia Wilkowski, Kaiz Alarakyia, Kevin McKee, Lisa Wang, Markus Kunesch, Mike Schaekermann, Miruna Pîslar, Nikhil Joshi, Parsa Mahmoudieh, Paul Jhun, Sara Wiltberger, Shakir Mohamed, Shashank Agarwal, Shubham Milind Phal, Sun Jae Lee, Theofilos Strinopoulos, Wei-Jen Ko, Amy Wang, Ankit Anand, Avishkar Bhoopchand, Dan Wild, Divya Pandya, Filip Bar, Garth Graham, Holger Winnemoeller, Mahvish Nagda, Prateek Kolhar, Renee Schneider, Shaojian Zhu, Stephanie Chan, Steve Yadlowsky, Viknesh Sounderajah, Yannis Assael
cs.AI
Resumen
Los sistemas generativos de IA actuales están ajustados para presentar información por defecto en lugar de involucrar a los usuarios en el aprendizaje como lo haría un tutor humano. Para abordar la amplia gama de posibles casos de uso educativo para estos sistemas, reformulamos el desafío de inyectar comportamiento pedagógico como uno de seguimiento de instrucción pedagógica, donde los ejemplos de entrenamiento y evaluación incluyen instrucciones a nivel de sistema que describen los atributos pedagógicos específicos presentes o deseados en los siguientes turnos del modelo. Este enfoque evita comprometer a nuestros modelos con una definición particular de pedagogía, y en cambio permite a los profesores o desarrolladores especificar el comportamiento del modelo deseado. También allana el camino para mejorar los modelos Gemini para el aprendizaje, al permitir la adición de nuestros datos pedagógicos a las mezclas posteriores al entrenamiento, junto con su conjunto de capacidades en rápida expansión. Ambos representan cambios importantes respecto a nuestro informe técnico inicial. Mostramos cómo el entrenamiento con seguimiento de instrucción pedagógica produce un modelo LearnLM (disponible en Google AI Studio) que es sustancialmente preferido por evaluadores expertos en un conjunto diverso de escenarios de aprendizaje, con fortalezas de preferencia promedio del 31\% sobre GPT-4o, 11\% sobre Claude 3.5 y 13\% sobre el modelo Gemini 1.5 Pro en el que se basó LearnLM.
English
Today's generative AI systems are tuned to present information by default
rather than engage users in service of learning as a human tutor would. To
address the wide range of potential education use cases for these systems, we
reframe the challenge of injecting pedagogical behavior as one of
pedagogical instruction following, where training and evaluation
examples include system-level instructions describing the specific pedagogy
attributes present or desired in subsequent model turns. This framing avoids
committing our models to any particular definition of pedagogy, and instead
allows teachers or developers to specify desired model behavior. It also clears
a path to improving Gemini models for learning -- by enabling the addition of
our pedagogical data to post-training mixtures -- alongside their rapidly
expanding set of capabilities. Both represent important changes from our
initial tech report. We show how training with pedagogical instruction
following produces a LearnLM model (available on Google AI Studio) that is
preferred substantially by expert raters across a diverse set of learning
scenarios, with average preference strengths of 31\% over GPT-4o, 11\% over
Claude 3.5, and 13\% over the Gemini 1.5 Pro model LearnLM was based on.Summary
AI-Generated Summary