ChatPaper.aiChatPaper

Iwin Transformer: Иерархический Vision Transformer с использованием чередующихся окон

Iwin Transformer: Hierarchical Vision Transformer using Interleaved Windows

July 24, 2025
Авторы: Simin Huo, Ning Li
cs.AI

Аннотация

Мы представляем Iwin Transformer — новый иерархический трансформер для обработки изображений, не требующий позиционных эмбеддингов, который может быть тонко настроен непосредственно от низкого до высокого разрешения благодаря сочетанию инновационного чередующегося оконного внимания и глубинной разделяемой свертки. Этот подход использует механизм внимания для соединения удаленных токенов и применяет свертку для связи соседних токенов, что позволяет обмениваться глобальной информацией в рамках одного модуля, преодолевая ограничение Swin Transformer, требующего двух последовательных блоков для приближения глобального внимания. Многочисленные эксперименты на визуальных бенчмарках демонстрируют, что Iwin Transformer показывает высокую конкурентоспособность в задачах, таких как классификация изображений (87,4% точности top-1 на ImageNet-1K), семантическая сегментация и распознавание действий в видео. Мы также подтверждаем эффективность ключевого компонента Iwin в качестве самостоятельного модуля, который может бесшовно заменить модуль самовнимания в генерации изображений с учетом классов. Концепции и методы, представленные в Iwin Transformer, имеют потенциал вдохновить будущие исследования, такие как Iwin 3D Attention в генерации видео. Код и модели доступны по адресу https://github.com/cominder/Iwin-Transformer.
English
We introduce Iwin Transformer, a novel position-embedding-free hierarchical vision transformer, which can be fine-tuned directly from low to high resolution, through the collaboration of innovative interleaved window attention and depthwise separable convolution. This approach uses attention to connect distant tokens and applies convolution to link neighboring tokens, enabling global information exchange within a single module, overcoming Swin Transformer's limitation of requiring two consecutive blocks to approximate global attention. Extensive experiments on visual benchmarks demonstrate that Iwin Transformer exhibits strong competitiveness in tasks such as image classification (87.4 top-1 accuracy on ImageNet-1K), semantic segmentation and video action recognition. We also validate the effectiveness of the core component in Iwin as a standalone module that can seamlessly replace the self-attention module in class-conditional image generation. The concepts and methods introduced by the Iwin Transformer have the potential to inspire future research, like Iwin 3D Attention in video generation. The code and models are available at https://github.com/cominder/Iwin-Transformer.
PDF42July 25, 2025