ChatPaper.aiChatPaper

Svelare il Bias di Accoppiamento tra Backbone e Ottimizzatore nella Apprendimento della Rappresentazione Visiva

Unveiling the Backbone-Optimizer Coupling Bias in Visual Representation Learning

October 8, 2024
Autori: Siyuan Li, Juanxi Tian, Zedong Wang, Luyuan Zhang, Zicheng Liu, Weiyang Jin, Yang Liu, Baigui Sun, Stan Z. Li
cs.AI

Abstract

Questo articolo approfondisce l'interazione tra le strutture di visione e gli ottimizzatori, rivelando un fenomeno interdipendente denominato \textbf{bias di accoppiamento tra struttura e ottimizzatore} (BOCB). Osserviamo che le CNN canoniche, come VGG e ResNet, mostrano una marcata interdipendenza con le famiglie di SGD, mentre architetture recenti come ViTs e ConvNeXt condividono un forte accoppiamento con quelli che utilizzano un tasso di apprendimento adattivo. Mostriamo inoltre che il BOCB può essere introdotto sia dagli ottimizzatori che da determinate progettazioni di struttura e può influenzare significativamente il pre-training e il fine-tuning successivo dei modelli di visione. Attraverso un'approfondita analisi empirica, riassumiamo le lezioni apprese sugli ottimizzatori consigliati e sulle intuizioni sulle robuste architetture di base per la visione. Speriamo che questo lavoro possa ispirare la comunità a mettere in discussione le assunzioni consolidate sulle strutture e sugli ottimizzatori, stimolare ulteriori esplorazioni e contribuire così a sistemi di visione più robusti. Il codice sorgente e i modelli sono disponibili pubblicamente su https://bocb-ai.github.io/.
English
This paper delves into the interplay between vision backbones and optimizers, unvealing an inter-dependent phenomenon termed \textbf{backbone-optimizer coupling bias} (BOCB). We observe that canonical CNNs, such as VGG and ResNet, exhibit a marked co-dependency with SGD families, while recent architectures like ViTs and ConvNeXt share a tight coupling with the adaptive learning rate ones. We further show that BOCB can be introduced by both optimizers and certain backbone designs and may significantly impact the pre-training and downstream fine-tuning of vision models. Through in-depth empirical analysis, we summarize takeaways on recommended optimizers and insights into robust vision backbone architectures. We hope this work can inspire the community to question long-held assumptions on backbones and optimizers, stimulate further explorations, and thereby contribute to more robust vision systems. The source code and models are publicly available at https://bocb-ai.github.io/.
PDF363November 16, 2024