ChatPaper.aiChatPaper

Изучение скрытых правил игры из данных: история шахмат

Learning the Latent Rules of a Game from Data: A Chess Story

October 3, 2024
Авторы: Ben Fauber
cs.AI

Аннотация

Мы демонстрируем, что небольшие предварительно обученные базовые генеративные языковые модели с миллионами параметров могут выучить скрытые правила процесса из данных, связанных с процессом. Вдохновленные новеллой Стефана Цвейга "Schachnovelle", также известной как "Королевская игра" на английском, мы показываем, что 28M и 125M параметров предварительно обученных базовых маленьких языковых моделей (SLM) могут быть дообучены с использованием от 1,000 до 1,000,000 примеров, чтобы выучить правила шахмат, предлагать законные ходы и точно решать шахматные задачи. Мы также исследуем влияние последовательных эпох дообучения языковой модели на улучшение результатов и демонстрируем снижение галлюцинаций модели путем увеличения количества примеров дообучения по инструкции.
English
We demonstrate that small pretrained foundational generative language models with millions of parameters can learn the latent rules of a process from data associated with the process. Inspired by Stefan Zweig's novella "Schachnovelle," also known as "The Royal Game" in English, we show that 28M and 125M parameter pretrained foundational small language models (SLMs) can be instruction fine-tuned with 1,000-to-1,000,000 examples to learn the rules of chess, propose legal moves, and accurately solve chess problems. We also explore the impact of successive language model fine-tuning epochs on improved outcomes and demonstrate reductions in model hallucinations by increasing the number of instruction fine-tuning examples.

Summary

AI-Generated Summary

PDF52November 16, 2024