ChatPaper.aiChatPaper

EfficientVMamba : Balayage sélectif atrous pour un Mamba visuel léger

EfficientVMamba: Atrous Selective Scan for Light Weight Visual Mamba

March 15, 2024
Auteurs: Xiaohuan Pei, Tao Huang, Chang Xu
cs.AI

Résumé

Les efforts antérieurs dans le développement de modèles légers se sont principalement concentrés sur des architectures basées sur les CNN et les Transformers, mais ont rencontré des défis persistants. Les CNN, bien qu'habiles à extraire des caractéristiques locales, compromettent la résolution, tandis que les Transformers offrent une portée globale mais augmentent les exigences computationnelles en O(N^2). Ce compromis permanent entre précision et efficacité reste un obstacle majeur. Récemment, les modèles d'espace d'état (SSMs), tels que Mamba, ont montré des performances exceptionnelles et une compétitivité dans diverses tâches telles que la modélisation du langage et la vision par ordinateur, tout en réduisant la complexité temporelle de l'extraction d'informations globales à O(N). Inspirés par cela, ce travail propose d'explorer le potentiel des modèles d'espace d'état visuels dans la conception de modèles légers et introduit une nouvelle variante de modèle efficace appelée EfficientVMamba. Concrètement, notre EfficientVMamba intègre une approche de balayage sélectif basée sur l'atrous par un échantillonnage efficace, constituant des blocs de construction conçus pour exploiter à la fois les caractéristiques de représentation globales et locales. De plus, nous étudions l'intégration entre les blocs SSM et les convolutions, et introduisons un bloc d'espace d'état visuel efficace combiné avec une branche de convolution supplémentaire, ce qui améliore encore les performances du modèle. Les résultats expérimentaux montrent qu'EfficientVMamba réduit la complexité computationnelle tout en obtenant des résultats compétitifs dans une variété de tâches de vision. Par exemple, notre EfficientVMamba-S avec 1,3G FLOPs améliore Vim-Ti avec 1,5G FLOPs par une marge significative de 5,6% en précision sur ImageNet. Le code est disponible à l'adresse : https://github.com/TerryPei/EfficientVMamba.
English
Prior efforts in light-weight model development mainly centered on CNN and Transformer-based designs yet faced persistent challenges. CNNs adept at local feature extraction compromise resolution while Transformers offer global reach but escalate computational demands O(N^2). This ongoing trade-off between accuracy and efficiency remains a significant hurdle. Recently, state space models (SSMs), such as Mamba, have shown outstanding performance and competitiveness in various tasks such as language modeling and computer vision, while reducing the time complexity of global information extraction to O(N). Inspired by this, this work proposes to explore the potential of visual state space models in light-weight model design and introduce a novel efficient model variant dubbed EfficientVMamba. Concretely, our EfficientVMamba integrates a atrous-based selective scan approach by efficient skip sampling, constituting building blocks designed to harness both global and local representational features. Additionally, we investigate the integration between SSM blocks and convolutions, and introduce an efficient visual state space block combined with an additional convolution branch, which further elevate the model performance. Experimental results show that, EfficientVMamba scales down the computational complexity while yields competitive results across a variety of vision tasks. For example, our EfficientVMamba-S with 1.3G FLOPs improves Vim-Ti with 1.5G FLOPs by a large margin of 5.6% accuracy on ImageNet. Code is available at: https://github.com/TerryPei/EfficientVMamba.

Summary

AI-Generated Summary

PDF111December 15, 2024