RedPajama: een Open Dataset voor het Trainen van Grote TaalmodellenRedPajama: an Open Dataset for Training Large Language Models
Grote taalmodellen worden steeds meer een hoeksteen-technologie in kunstmatige intelligentie, de wetenschappen en de samenleving als geheel, maar de optimale strategieën voor dataset samenstelling en filtering blijven grotendeels ongrijpbaar. Veel van de best presterende modellen missen transparantie in hun dataset samenstelling en model ontwikkelingsprocessen, wat een obstakel vormt voor de ontwikkeling van volledig open taalmodellen. In dit artikel identificeren we drie kernuitdagingen met betrekking tot gegevens die moeten worden aangepakt om open-source taalmodellen te bevorderen. Deze omvatten (1) transparantie in modelontwikkeling, inclusief het gegevenscuratieproces, (2) toegang tot grote hoeveelheden hoogwaardige gegevens, en (3) beschikbaarheid van artefacten en metadata voor gegevenscuratie en -analyse. Om deze uitdagingen aan te pakken, brengen we RedPajama-V1 uit, een open reproductie van het LLaMA-trainingsdataset. Daarnaast brengen we RedPajama-V2 uit, een enorme dataset die alleen op het web bestaat en bestaat uit ruwe, ongefilterde tekstdatabestanden samen met kwaliteitssignalen en metadata. Samen omvatten de RedPajama-datasets meer dan 100 biljoen tokens die meerdere domeinen bestrijken en met hun kwaliteitssignalen de filtering van gegevens vergemakkelijken, met als doel de ontwikkeling van talrijke nieuwe datasets te inspireren. Tot op heden zijn deze datasets al gebruikt bij de training van sterke taalmodellen die in productie worden gebruikt, zoals Snowflake Arctic, Salesforce's XGen en AI2's OLMo. Om inzicht te geven in de kwaliteit van RedPajama, presenteren we een reeks analyses en ablatiestudies met alleen-decoder taalmodellen met maximaal 1,6 miljard parameters. Onze bevindingen tonen aan hoe kwaliteitssignalen voor webgegevens effectief kunnen worden benut om hoogwaardige subsets van de dataset te cureren, waarbij het potentieel van RedPajama wordt benadrukt om de ontwikkeling van transparante en hoog presterende taalmodellen op grote schaal te bevorderen.