ViTAR : Vision Transformer avec Résolution ArbitraireViTAR: Vision Transformer with Any Resolution
Cet article aborde un défi majeur rencontré par les Vision Transformers (ViTs) : leur scalabilité limitée face à différentes résolutions d'images. Typiquement, les ViTs voient leurs performances diminuer lorsqu'ils traitent des résolutions différentes de celles rencontrées lors de l'entraînement. Notre travail introduit deux innovations clés pour résoudre ce problème. Premièrement, nous proposons un nouveau module d'ajustement dynamique de la résolution, conçu avec un seul bloc Transformer, spécifiquement pour réaliser une intégration incrémentale de tokens hautement efficace. Deuxièmement, nous introduisons un encodage positionnel flou dans le Vision Transformer pour fournir une conscience positionnelle cohérente à travers plusieurs résolutions, évitant ainsi le surapprentissage à une seule résolution d'entraînement. Notre modèle résultant, ViTAR (Vision Transformer with Any Resolution), démontre une adaptabilité impressionnante, atteignant une précision top-1 de 83,3 % à une résolution de 1120x1120 et 80,4 % à une résolution de 4032x4032, tout en réduisant les coûts de calcul. ViTAR montre également de solides performances dans des tâches en aval telles que la segmentation d'instances et sémantique, et peut facilement être combiné avec des techniques d'apprentissage auto-supervisé comme le Masked AutoEncoder. Notre travail offre une solution économique pour améliorer la scalabilité en résolution des ViTs, ouvrant la voie à un traitement d'images haute résolution plus polyvalent et efficace.