Het Leren van de Latente Regels van een Spel uit Data: Een Schaakverhaal
Learning the Latent Rules of a Game from Data: A Chess Story
October 3, 2024
Auteurs: Ben Fauber
cs.AI
Samenvatting
We tonen aan dat kleine voorgeleerde fundamentele generatieve taalmodellen met miljoenen parameters de latente regels van een proces kunnen leren van gegevens die verband houden met het proces. Geïnspireerd door de novelle "Schachnovelle" van Stefan Zweig, ook bekend als "Het Koninklijke Spel" in het Engels, laten we zien dat 28M en 125M parameter voorgeleerde fundamentele kleine taalmodellen (SLM's) kunnen worden instructie fijnafgestemd met 1.000 tot 1.000.000 voorbeelden om de regels van schaken te leren, legale zetten voor te stellen en schaakproblemen nauwkeurig op te lossen. We onderzoeken ook de impact van opeenvolgende taalmodel fijnafstemmingsepochen op verbeterde resultaten en tonen verminderingen in modelhallucinaties door het aantal instructie fijnafstemming voorbeelden te verhogen.
English
We demonstrate that small pretrained foundational generative language models
with millions of parameters can learn the latent rules of a process from data
associated with the process. Inspired by Stefan Zweig's novella
"Schachnovelle," also known as "The Royal Game" in English, we show that 28M
and 125M parameter pretrained foundational small language models (SLMs) can be
instruction fine-tuned with 1,000-to-1,000,000 examples to learn the rules of
chess, propose legal moves, and accurately solve chess problems. We also
explore the impact of successive language model fine-tuning epochs on improved
outcomes and demonstrate reductions in model hallucinations by increasing the
number of instruction fine-tuning examples.Summary
AI-Generated Summary