ChatPaper.aiChatPaper

Настройка крупных языковых моделей с использованием стратегий обучения, вдохновленных человеком, в медицинском вопросно-ответном моделировании.

Fine-tuning Large Language Models with Human-inspired Learning Strategies in Medical Question Answering

August 15, 2024
Авторы: Yushi Yang, Andrew M. Bean, Robert McCraith, Adam Mahdi
cs.AI

Аннотация

Обучение больших языковых моделей (LLM) сопряжено с существенными затратами на данные, что стимулирует разработку методов обучения, эффективных с точки зрения использования данных, путем оптимизации порядка и выбора данных. Стратегии обучения, вдохновленные человеческим обучением, такие как обучение по курсам, предлагают возможности для эффективного обучения путем организации данных в соответствии с общими практиками человеческого обучения. Несмотря на доказательства того, что дообучение с применением обучения по курсам улучшает производительность LLM для задач понимания естественного языка, его эффективность обычно оценивается с использованием одной модели. В данной работе мы расширяем предыдущие исследования, оценивая как стратегии обучения на основе курсов, так и не на основе курсов, на нескольких LLM, используя человечески определенные и автоматизированные метки данных для ответов на медицинские вопросы. Наши результаты показывают умеренное влияние использования стратегий обучения, вдохновленных человеком, для дообучения LLM, с максимальным приростом точности на модель в 1,77% и на набор данных в 1,81%. Критически важно, что мы демонстрируем, что эффективность этих стратегий значительно варьируется в зависимости от различных комбинаций модель-набор данных, подчеркивая, что преимущества конкретной стратегии, вдохновленной человеком, для дообучения LLM не обобщаются. Кроме того, мы находим доказательства того, что обучение по курсам с использованием определенной сложности вопросов, определенной LLM, превосходит сложность, определенную человеком, что подчеркивает потенциал использования модельно-сгенерированных мер для оптимального проектирования учебного плана.
English
Training Large Language Models (LLMs) incurs substantial data-related costs, motivating the development of data-efficient training methods through optimised data ordering and selection. Human-inspired learning strategies, such as curriculum learning, offer possibilities for efficient training by organising data according to common human learning practices. Despite evidence that fine-tuning with curriculum learning improves the performance of LLMs for natural language understanding tasks, its effectiveness is typically assessed using a single model. In this work, we extend previous research by evaluating both curriculum-based and non-curriculum-based learning strategies across multiple LLMs, using human-defined and automated data labels for medical question answering. Our results indicate a moderate impact of using human-inspired learning strategies for fine-tuning LLMs, with maximum accuracy gains of 1.77% per model and 1.81% per dataset. Crucially, we demonstrate that the effectiveness of these strategies varies significantly across different model-dataset combinations, emphasising that the benefits of a specific human-inspired strategy for fine-tuning LLMs do not generalise. Additionally, we find evidence that curriculum learning using LLM-defined question difficulty outperforms human-defined difficulty, highlighting the potential of using model-generated measures for optimal curriculum design.

Summary

AI-Generated Summary

PDF132November 26, 2024