ChatPaper.aiChatPaper

Iwin Transformer: Hiërarchische Vision Transformer met behulp van Interleaved Windows

Iwin Transformer: Hierarchical Vision Transformer using Interleaved Windows

July 24, 2025
Auteurs: Simin Huo, Ning Li
cs.AI

Samenvatting

We introduceren de Iwin Transformer, een nieuwe hiërarchische vision transformer zonder positionele inbedding, die direct kan worden afgestemd van lage naar hoge resolutie, dankzij de samenwerking van innovatieve interleaved window attention en depthwise separable convolution. Deze aanpak gebruikt attention om verre tokens te verbinden en past convolutie toe om naburige tokens te koppelen, waardoor globale informatie-uitwisseling binnen een enkele module mogelijk wordt, wat de beperking van de Swin Transformer overwint om twee opeenvolgende blokken nodig te hebben om globale attention te benaderen. Uitgebreide experimenten op visuele benchmarks tonen aan dat de Iwin Transformer sterke concurrentie vertoont in taken zoals beeldclassificatie (87,4 top-1 nauwkeurigheid op ImageNet-1K), semantische segmentatie en video-actieherkenning. We valideren ook de effectiviteit van de kerncomponent in Iwin als een zelfstandige module die naadloos de self-attention module in klasse-conditionele beeldgeneratie kan vervangen. De concepten en methoden die door de Iwin Transformer worden geïntroduceerd, hebben het potentieel om toekomstig onderzoek te inspireren, zoals Iwin 3D Attention in videogeneratie. De code en modellen zijn beschikbaar op https://github.com/cominder/Iwin-Transformer.
English
We introduce Iwin Transformer, a novel position-embedding-free hierarchical vision transformer, which can be fine-tuned directly from low to high resolution, through the collaboration of innovative interleaved window attention and depthwise separable convolution. This approach uses attention to connect distant tokens and applies convolution to link neighboring tokens, enabling global information exchange within a single module, overcoming Swin Transformer's limitation of requiring two consecutive blocks to approximate global attention. Extensive experiments on visual benchmarks demonstrate that Iwin Transformer exhibits strong competitiveness in tasks such as image classification (87.4 top-1 accuracy on ImageNet-1K), semantic segmentation and video action recognition. We also validate the effectiveness of the core component in Iwin as a standalone module that can seamlessly replace the self-attention module in class-conditional image generation. The concepts and methods introduced by the Iwin Transformer have the potential to inspire future research, like Iwin 3D Attention in video generation. The code and models are available at https://github.com/cominder/Iwin-Transformer.
PDF42July 25, 2025