ChatPaper.aiChatPaper

Von den Besten lernen, aber anders: Ein diversitätsgetriebenes Umdenken in der Datenauswahl

Learning from the Best, Differently: A Diversity-Driven Rethinking on Data Selection

October 21, 2025
papers.authors: Hongyi He, Xiao Liu, Zhenghao Lin, Mingni Tang, Yi Cheng, Jintao Wang, Wenjie Li, Peng Cheng, Yeyun Gong
cs.AI

papers.abstract

Hochwertige Vortrainingsdaten sind entscheidend für große Sprachmodelle, wobei Qualität die faktische Zuverlässigkeit und den semantischen Wert erfasst und Diversität eine breite Abdeckung und verteilungsbezogene Heterogenität sicherstellt. Bestehende Ansätze stützen sich typischerweise auf eine ein- oder mehrdimensionale, bewertungsbasierte Auswahl. Die direkte Auswahl der höchstbewerteten Daten führt jedoch oft zu einer Verschlechterung der Leistung, und eine Stichprobenziehung aus einem breiteren Spektrum ist erforderlich, um die Ergebnisse wiederherzustellen. Die oben beschriebene Nicht-Monotonie zwischen den Datensatzbewertungen und den Ergebnissen nachgelagerter Benchmarks offenbart eine grundlegende Verzerrung: Bewertungsbasierte Methoden kollabieren korrelierte Dimensionen, wodurch die höchstbewerteten Daten qualitativ hochwertig erscheinen, während die Diversität systematisch übersehen wird. Wir argumentieren, dass die Sicherstellung von Diversität die Zerlegung korrelierter Metriken in orthogonale Merkmalsdimensionen erfordert, aus denen die höchstbewerteten Daten direkt ausgewählt werden können. Daher haben wir den Orthogonal Diversity-Aware Selection (ODiS)-Algorithmus vorgeschlagen, der sowohl Qualität als auch Diversität während der Datenauswahl bewahrt. Zunächst bewertet ODiS Daten aus mehreren Dimensionen, die Sprachqualität, Wissensqualität und Verständnisschwierigkeit abdecken. Die mehrdimensionalen Bewertungen werden dann durch Hauptkomponentenanalyse (PCA) dekorreliert, wodurch orthogonale Bewertungsdimensionen entstehen. Für jede Dimension wird ein Roberta-basierter Bewerter trainiert, um die Daten auf die PCA-projizierten Bewertungen zu regressieren, was eine skalierbare Inferenz auf großen Korpora ermöglicht. Schließlich konstruiert ODiS den Trainingsdatensatz, indem die höchstbewerteten Daten innerhalb jeder orthogonalen Dimension ausgewählt werden, wodurch sowohl Qualität als auch Diversität sichergestellt werden. Empirische Ergebnisse zeigen, dass die von ODiS ausgewählten Daten weniger als 2 % Überlappung zwischen den Dimensionen aufweisen, was die Orthogonalität zwischen den Dimensionen bestätigt. Noch wichtiger ist, dass Modelle, die mit ODiS-ausgewählten Daten trainiert wurden, andere Baselines auf nachgelagerten Benchmarks deutlich übertreffen, was die Notwendigkeit einer orthogonalen, diversitätsbewussten Datenauswahl für LLMs unterstreicht.
English
High-quality pre-training data is crutial for large language models, where quality captures factual reliability and semantic value, and diversity ensures broad coverage and distributional heterogeneity. Existing approaches typically rely on single or multiple-dimensional score-based selection. However, directly selecting top-scored data often degrades performance, and sampling from a broader range is required to recover results. The above non-monotonicity between dataset scores and downstream benchmark results reveals a fundamental bias: score-based methods collapse correlated dimensions, causing top-scored data to appear high-quality while systematically overlooking diversity. We argue that ensuring diversity requires decomposing correlated metrics into orthogonal feature dimensions, from which the top-scored data can be directly selected. Therefore, we proposed the Orthogonal Diversity-Aware Selection (ODiS) algorithm, which preserves both quality and diversity during data selection. First, ODiS evaluates data from multiple dimensions, covering language quality, knowledge quality, and comprehension difficulty. The multi-dimensional scores are then decorrelated via Principal Component Analysis (PCA), yielding orthogonal evaluation dimensions. For each dimension, a Roberta-based scorer is trained to regress the data onto PCA-projected scores, enabling scalable inference on large corpora. Finally, ODiS constructs the training dataset by selecting top-scored data within each orthogonal dimension, thereby ensuring both quality and diversity. Empirical results show that ODiS-selected data exhibit less than 2\% inter-dimension overlap, confirming orthogonality between dimensions. More importantly, models trained with ODiS-selected data significantly outperform other baselines on downstream benchmarks, highlighting the necessity of orthogonal, diversity-aware data selection for LLMs.
PDF31October 23, 2025