Yi: Offene Grundlagenmodelle von 01.AIYi: Open Foundation Models by 01.AI
Wir stellen die Yi-Modellfamilie vor, eine Reihe von Sprach- und multimodalen Modellen, die starke multidimensionale Fähigkeiten aufweisen. Die Yi-Modellfamilie basiert auf den vortrainierten Sprachmodellen mit 6B und 34B, die wir dann zu Chatmodellen, Modellen mit 200K langem Kontext, tiefenskalierten Modellen und Sprach-Vision-Modellen erweitern. Unsere Basismodelle erzielen starke Leistungen in einer Vielzahl von Benchmarks wie MMLU, und unsere feinabgestimmten Chatmodelle erzielen eine hohe menschliche Präferenzrate auf wichtigen Evaluationsplattformen wie AlpacaEval und Chatbot Arena. Basierend auf unserer skalierbaren Supercomputing-Infrastruktur und der klassischen Transformer-Architektur führen wir die Leistung der Yi-Modelle hauptsächlich auf deren Datenqualität zurück, die aus unseren Bemühungen im Bereich der Datenverarbeitung resultiert. Für das Vortraining erstellen wir 3,1 Billionen Tokens von englischen und chinesischen Korpora unter Verwendung einer kaskadierten Daten-Deduplizierung und Qualitätsfilterungspipeline. Für die Feinabstimmung verfeinern wir einen kleinen Datensatz (weniger als 10K) von Anweisungen über mehrere Iterationen, sodass jede einzelne Instanz direkt von unseren Maschinenlerningenieuren überprüft wurde. Für Sprache-Vision kombinieren wir das Chat-Sprachmodell mit einem Vision-Transformer-Encoder und trainieren das Modell, um visuelle Darstellungen mit dem semantischen Raum des Sprachmodells abzustimmen. Wir erweitern die Kontextlänge auf 200K durch leichtgewichtiges kontinuierliches Vortraining und zeigen eine starke Nadel-im-Heuhaufen-Auffindungsleistung. Wir zeigen, dass die Erweiterung der Tiefe des vortrainierten Checkpoints durch kontinuierliches Vortraining die Leistung weiter verbessert. Wir sind der Meinung, dass bei unseren aktuellen Ergebnissen die Skalierung der Modellparameter unter Verwendung sorgfältig optimierter Daten zu noch stärkeren Spitzenmodellen führen wird.