Svelare il Bias di Accoppiamento tra Backbone e Ottimizzatore nella Apprendimento della Rappresentazione Visiva
Unveiling the Backbone-Optimizer Coupling Bias in Visual Representation Learning
October 8, 2024
Autori: Siyuan Li, Juanxi Tian, Zedong Wang, Luyuan Zhang, Zicheng Liu, Weiyang Jin, Yang Liu, Baigui Sun, Stan Z. Li
cs.AI
Abstract
Questo articolo approfondisce l'interazione tra le strutture di visione e gli ottimizzatori, rivelando un fenomeno interdipendente denominato \textbf{bias di accoppiamento tra struttura e ottimizzatore} (BOCB). Osserviamo che le CNN canoniche, come VGG e ResNet, mostrano una marcata interdipendenza con le famiglie di SGD, mentre architetture recenti come ViTs e ConvNeXt condividono un forte accoppiamento con quelli che utilizzano un tasso di apprendimento adattivo. Mostriamo inoltre che il BOCB può essere introdotto sia dagli ottimizzatori che da determinate progettazioni di struttura e può influenzare significativamente il pre-training e il fine-tuning successivo dei modelli di visione. Attraverso un'approfondita analisi empirica, riassumiamo le lezioni apprese sugli ottimizzatori consigliati e sulle intuizioni sulle robuste architetture di base per la visione. Speriamo che questo lavoro possa ispirare la comunità a mettere in discussione le assunzioni consolidate sulle strutture e sugli ottimizzatori, stimolare ulteriori esplorazioni e contribuire così a sistemi di visione più robusti. Il codice sorgente e i modelli sono disponibili pubblicamente su https://bocb-ai.github.io/.
English
This paper delves into the interplay between vision backbones and optimizers,
unvealing an inter-dependent phenomenon termed
\textbf{backbone-optimizer coupling bias}
(BOCB). We observe that canonical CNNs, such as VGG and ResNet, exhibit a
marked co-dependency with SGD families, while recent architectures like ViTs
and ConvNeXt share a tight coupling with the adaptive learning rate ones. We
further show that BOCB can be introduced by both optimizers and certain
backbone designs and may significantly impact the pre-training and downstream
fine-tuning of vision models. Through in-depth empirical analysis, we summarize
takeaways on recommended optimizers and insights into robust vision backbone
architectures. We hope this work can inspire the community to question
long-held assumptions on backbones and optimizers, stimulate further
explorations, and thereby contribute to more robust vision systems. The source
code and models are publicly available at https://bocb-ai.github.io/.