Apprendere le Regole Latenti di un Gioco dai Dati: Una Storia degli Scacchi
Learning the Latent Rules of a Game from Data: A Chess Story
October 3, 2024
Autori: Ben Fauber
cs.AI
Abstract
Dimostriamo che piccoli modelli linguistici generativi fondamentali preaddestrati con milioni di parametri possono apprendere le regole latenti di un processo dai dati associati al processo. Ispirati alla novella di Stefan Zweig "Schachnovelle," nota anche come "Il gioco reale" in inglese, mostriamo che modelli linguistici fondamentali di piccole dimensioni (SLM) preaddestrati con 28M e 125M di parametri possono essere sottoposti a un raffinamento dell'istruzione con 1.000-1.000.000 di esempi per apprendere le regole degli scacchi, proporre mosse legali e risolvere con precisione problemi degli scacchi. Esploriamo inoltre l'impatto degli epoche successive di raffinamento del modello linguistico sui risultati migliorati e dimostriamo riduzioni nelle allucinazioni del modello aumentando il numero di esempi di raffinamento dell'istruzione.
English
We demonstrate that small pretrained foundational generative language models
with millions of parameters can learn the latent rules of a process from data
associated with the process. Inspired by Stefan Zweig's novella
"Schachnovelle," also known as "The Royal Game" in English, we show that 28M
and 125M parameter pretrained foundational small language models (SLMs) can be
instruction fine-tuned with 1,000-to-1,000,000 examples to learn the rules of
chess, propose legal moves, and accurately solve chess problems. We also
explore the impact of successive language model fine-tuning epochs on improved
outcomes and demonstrate reductions in model hallucinations by increasing the
number of instruction fine-tuning examples.