LearnLM: Улучшение Gemini для обучения

LearnLM: Improving Gemini for Learning

December 21, 2024
Авторы: LearnLM Team, Abhinit Modi, Aditya Srikanth Veerubhotla, Aliya Rysbek, Andrea Huber, Brett Wiltshire, Brian Veprek, Daniel Gillick, Daniel Kasenberg, Derek Ahmed, Irina Jurenka, James Cohan, Jennifer She, Julia Wilkowski, Kaiz Alarakyia, Kevin McKee, Lisa Wang, Markus Kunesch, Mike Schaekermann, Miruna Pîslar, Nikhil Joshi, Parsa Mahmoudieh, Paul Jhun, Sara Wiltberger, Shakir Mohamed, Shashank Agarwal, Shubham Milind Phal, Sun Jae Lee, Theofilos Strinopoulos, Wei-Jen Ko, Amy Wang, Ankit Anand, Avishkar Bhoopchand, Dan Wild, Divya Pandya, Filip Bar, Garth Graham, Holger Winnemoeller, Mahvish Nagda, Prateek Kolhar, Renee Schneider, Shaojian Zhu, Stephanie Chan, Steve Yadlowsky, Viknesh Sounderajah, Yannis Assael
cs.AI

Аннотация

Современные генеративные системы искусственного интеллекта настроены на представление информации по умолчанию, а не на вовлечение пользователей в обучение, как это делал бы человеческий наставник. Для решения широкого спектра потенциальных образовательных сценариев использования этих систем мы переосмысливаем задачу внедрения педагогического поведения как задачу последующего педагогического инструктирования, где обучающие и оценочные примеры включают инструкции на уровне системы, описывающие конкретные педагогические атрибуты, присутствующие или желаемые в последующих модельных оборотах. Такая постановка задачи позволяет избежать привязки наших моделей к какому-либо конкретному определению педагогики и вместо этого позволяет учителям или разработчикам указывать желаемое поведение модели. Это также открывает путь к улучшению моделей Gemini для обучения, позволяя добавлять наши педагогические данные к посттренировочным смесям, наряду с их быстро расширяющимся набором возможностей. Оба аспекта представляют собой важные изменения по сравнению с нашим первоначальным техническим отчетом. Мы показываем, как обучение с последующим педагогическим инструктированием порождает модель LearnLM (доступную на Google AI Studio), которая значительно предпочтительнее для экспертов по разнообразным сценариям обучения, с средними показателями предпочтения на уровне 31% по сравнению с GPT-4o, на 11% выше, чем у Claude 3.5, и на 13% выше, чем у модели Gemini 1.5 Pro, на основе которой был создан LearnLM.
English
Today's generative AI systems are tuned to present information by default rather than engage users in service of learning as a human tutor would. To address the wide range of potential education use cases for these systems, we reframe the challenge of injecting pedagogical behavior as one of pedagogical instruction following, where training and evaluation examples include system-level instructions describing the specific pedagogy attributes present or desired in subsequent model turns. This framing avoids committing our models to any particular definition of pedagogy, and instead allows teachers or developers to specify desired model behavior. It also clears a path to improving Gemini models for learning -- by enabling the addition of our pedagogical data to post-training mixtures -- alongside their rapidly expanding set of capabilities. Both represent important changes from our initial tech report. We show how training with pedagogical instruction following produces a LearnLM model (available on Google AI Studio) that is preferred substantially by expert raters across a diverse set of learning scenarios, with average preference strengths of 31\% over GPT-4o, 11\% over Claude 3.5, and 13\% over the Gemini 1.5 Pro model LearnLM was based on.

Summary

AI-Generated Summary

PDF222December 24, 2024