ChatPaper.aiChatPaper

Iwin Transformer: Transformador de Visão Hierárquico utilizando Janelas Intercaladas

Iwin Transformer: Hierarchical Vision Transformer using Interleaved Windows

July 24, 2025
Autores: Simin Huo, Ning Li
cs.AI

Resumo

Apresentamos o Iwin Transformer, um novo transformador hierárquico para visão sem incorporação de posição, que pode ser ajustado diretamente de baixa para alta resolução, por meio da colaboração de uma atenção inovadora por janelas intercaladas e convolução separável em profundidade. Essa abordagem utiliza atenção para conectar tokens distantes e aplica convolução para vincular tokens vizinhos, permitindo a troca global de informações dentro de um único módulo, superando a limitação do Swin Transformer de exigir dois blocos consecutivos para aproximar a atenção global. Experimentos extensos em benchmarks visuais demonstram que o Iwin Transformer exibe forte competitividade em tarefas como classificação de imagens (87,4 de precisão top-1 no ImageNet-1K), segmentação semântica e reconhecimento de ações em vídeos. Também validamos a eficácia do componente central do Iwin como um módulo independente que pode substituir perfeitamente o módulo de autoatenção na geração de imagens condicionadas por classe. Os conceitos e métodos introduzidos pelo Iwin Transformer têm o potencial de inspirar pesquisas futuras, como a Iwin 3D Attention na geração de vídeos. O código e os modelos estão disponíveis em https://github.com/cominder/Iwin-Transformer.
English
We introduce Iwin Transformer, a novel position-embedding-free hierarchical vision transformer, which can be fine-tuned directly from low to high resolution, through the collaboration of innovative interleaved window attention and depthwise separable convolution. This approach uses attention to connect distant tokens and applies convolution to link neighboring tokens, enabling global information exchange within a single module, overcoming Swin Transformer's limitation of requiring two consecutive blocks to approximate global attention. Extensive experiments on visual benchmarks demonstrate that Iwin Transformer exhibits strong competitiveness in tasks such as image classification (87.4 top-1 accuracy on ImageNet-1K), semantic segmentation and video action recognition. We also validate the effectiveness of the core component in Iwin as a standalone module that can seamlessly replace the self-attention module in class-conditional image generation. The concepts and methods introduced by the Iwin Transformer have the potential to inspire future research, like Iwin 3D Attention in video generation. The code and models are available at https://github.com/cominder/Iwin-Transformer.
PDF42July 25, 2025