ChatPaper.aiChatPaper

Scaling della preformazione a cento miliardi di dati per modelli vision language

Scaling Pre-training to One Hundred Billion Data for Vision Language Models

February 11, 2025
Autori: Xiao Wang, Ibrahim Alabdulmohsin, Daniel Salz, Zhe Li, Keran Rong, Xiaohua Zhai
cs.AI

Abstract

Forniamo un'indagine empirica sul potenziale del pre-training dei modelli visione-linguaggio su una scala senza precedenti: 100 miliardi di esempi. Riscontriamo che le prestazioni del modello tendono a saturarsi a questa scala su molti comuni benchmark di classificazione e recupero occidentali, come COCO Captions. Tuttavia, compiti legati alla diversità culturale ottengono guadagni più consistenti dai dati web su scala di 100 miliardi, grazie alla copertura di concetti di coda lunga. Inoltre, analizziamo la multilinguismo del modello e mostriamo guadagni anche nelle lingue a risorse limitate. Inoltre, osserviamo che ridurre le dimensioni del dataset di pretraining tramite filtri di qualità come l'utilizzo di CLIP, comunemente utilizzato per migliorare le prestazioni, potrebbe ridurre involontariamente la diversità culturale rappresentata anche in dataset su larga scala. I nostri risultati mettono in evidenza che, sebbene i benchmark tradizionali potrebbero non beneficiare significativamente dal ridimensionamento di dati web rumorosi e grezzi a 100 miliardi di esempi, questa scala di dati è vitale per la costruzione di sistemi multimodali veramente inclusivi.
English
We provide an empirical investigation of the potential of pre-training vision-language models on an unprecedented scale: 100 billion examples. We find that model performance tends to saturate at this scale on many common Western-centric classification and retrieval benchmarks, such as COCO Captions. Nevertheless, tasks of cultural diversity achieve more substantial gains from the 100-billion scale web data, thanks to its coverage of long-tail concepts. Furthermore, we analyze the model's multilinguality and show gains in low-resource languages as well. In addition, we observe that reducing the size of the pretraining dataset via quality filters like using CLIP, typically used to enhance performance, may inadvertently reduce the cultural diversity represented even in large-scale datasets. Our results highlight that while traditional benchmarks may not benefit significantly from scaling noisy, raw web data to 100 billion examples, this data scale is vital for building truly inclusive multimodal systems.

Summary

AI-Generated Summary

PDF294February 12, 2025