ChatPaper.aiChatPaper

Battaglia dei Backbone: Un Confronto su Larga Scala di Modelli Pre-addestrati nei Compiti di Computer Vision

Battle of the Backbones: A Large-Scale Comparison of Pretrained Models across Computer Vision Tasks

October 30, 2023
Autori: Micah Goldblum, Hossein Souri, Renkun Ni, Manli Shu, Viraj Prabhu, Gowthami Somepalli, Prithvijit Chattopadhyay, Mark Ibrahim, Adrien Bardes, Judy Hoffman, Rama Chellappa, Andrew Gordon Wilson, Tom Goldstein
cs.AI

Abstract

I sistemi di visione artificiale basati su reti neurali sono tipicamente costruiti su un backbone, un estrattore di caratteristiche pre-addestrato o inizializzato casualmente. Diversi anni fa, l'opzione predefinita era una rete neurale convoluzionale addestrata su ImageNet. Tuttavia, negli ultimi tempi abbiamo assistito all'emergere di innumerevoli backbone pre-addestrati utilizzando vari algoritmi e dataset. Sebbene questa abbondanza di scelta abbia portato a miglioramenti delle prestazioni per una gamma di sistemi, è difficile per i professionisti prendere decisioni informate su quale backbone scegliere. Battle of the Backbones (BoB) rende questa scelta più semplice eseguendo benchmark su una suite diversificata di modelli pre-addestrati, inclusi modelli visione-linguaggio, quelli addestrati tramite apprendimento auto-supervisionato e il backbone di Stable Diffusion, su un ampio insieme di task di visione artificiale che vanno dalla classificazione alla rilevazione di oggetti, alla generalizzazione OOD e altro ancora. Inoltre, BoB getta luce su direzioni promettenti per la comunità di ricerca per far progredire la visione artificiale, evidenziando punti di forza e debolezza degli approcci esistenti attraverso un'analisi completa condotta su oltre 1500 esecuzioni di addestramento. Sebbene i vision transformer (ViT) e l'apprendimento auto-supervisionato (SSL) siano sempre più popolari, scopriamo che le reti neurali convoluzionali pre-addestrate in modo supervisionato su grandi dataset di addestramento continuano a ottenere le migliori prestazioni sulla maggior parte dei task tra i modelli considerati. Inoltre, in confronti diretti sulle stesse architetture e su dataset di pre-addestramento di dimensioni simili, scopriamo che i backbone SSL sono altamente competitivi, indicando che i lavori futuri dovrebbero eseguire il pre-addestramento SSL con architetture avanzate e dataset di pre-addestramento più ampi. Rilasciamo i risultati grezzi dei nostri esperimenti insieme al codice che consente ai ricercatori di sottoporre i propri backbone a questa prova qui: https://github.com/hsouri/Battle-of-the-Backbones.
English
Neural network based computer vision systems are typically built on a backbone, a pretrained or randomly initialized feature extractor. Several years ago, the default option was an ImageNet-trained convolutional neural network. However, the recent past has seen the emergence of countless backbones pretrained using various algorithms and datasets. While this abundance of choice has led to performance increases for a range of systems, it is difficult for practitioners to make informed decisions about which backbone to choose. Battle of the Backbones (BoB) makes this choice easier by benchmarking a diverse suite of pretrained models, including vision-language models, those trained via self-supervised learning, and the Stable Diffusion backbone, across a diverse set of computer vision tasks ranging from classification to object detection to OOD generalization and more. Furthermore, BoB sheds light on promising directions for the research community to advance computer vision by illuminating strengths and weakness of existing approaches through a comprehensive analysis conducted on more than 1500 training runs. While vision transformers (ViTs) and self-supervised learning (SSL) are increasingly popular, we find that convolutional neural networks pretrained in a supervised fashion on large training sets still perform best on most tasks among the models we consider. Moreover, in apples-to-apples comparisons on the same architectures and similarly sized pretraining datasets, we find that SSL backbones are highly competitive, indicating that future works should perform SSL pretraining with advanced architectures and larger pretraining datasets. We release the raw results of our experiments along with code that allows researchers to put their own backbones through the gauntlet here: https://github.com/hsouri/Battle-of-the-Backbones
PDF211February 7, 2026