ChatPaper.aiChatPaper

Transformadores Visuais para Remoção de Ruído

Denoising Vision Transformers

January 5, 2024
Autores: Jiawei Yang, Katie Z Luo, Jiefeng Li, Kilian Q Weinberger, Yonglong Tian, Yue Wang
cs.AI

Resumo

Nós nos aprofundamos em um desafio sutil, mas significativo, inerente aos Vision Transformers (ViTs): os mapas de características desses modelos exibem artefatos em forma de grade, o que prejudica o desempenho dos ViTs em tarefas subsequentes. Nossas investigações rastreiam essa questão fundamental até os embeddings posicionais na etapa de entrada. Para resolver isso, propomos um novo modelo de ruído, que é universalmente aplicável a todos os ViTs. Especificamente, o modelo de ruído decompõe as saídas dos ViTs em três componentes: um termo semântico livre de artefatos de ruído e dois termos relacionados a artefatos que são condicionados às localizações dos pixels. Essa decomposição é alcançada ao impor consistência de características entre diferentes visões com campos neurais em uma base por imagem. Esse processo de otimização por imagem extrai características livres de artefatos das saídas brutas dos ViTs, fornecendo características limpas para aplicações offline. Expandindo o escopo de nossa solução para suportar funcionalidade online, introduzimos um denoiser aprendível para prever características livres de artefatos diretamente das saídas não processadas dos ViTs, o que mostra capacidades notáveis de generalização para novos dados sem a necessidade de otimização por imagem. Nossa abordagem em duas etapas, denominada Denoising Vision Transformers (DVT), não requer o retreinamento de ViTs pré-treinados existentes e é imediatamente aplicável a qualquer arquitetura baseada em Transformers. Avaliamos nosso método em uma variedade de ViTs representativos (DINO, MAE, DeiT-III, EVA02, CLIP, DINOv2, DINOv2-reg). Avaliações extensas demonstram que nosso DVT melhora consistentemente e de forma significativa os modelos de propósito geral mais avançados existentes em tarefas semânticas e geométricas em vários conjuntos de dados (por exemplo, +3,84 mIoU). Esperamos que nosso estudo incentive uma reavaliação do design dos ViTs, especialmente em relação ao uso ingênuo de embeddings posicionais.
English
We delve into a nuanced but significant challenge inherent to Vision Transformers (ViTs): feature maps of these models exhibit grid-like artifacts, which detrimentally hurt the performance of ViTs in downstream tasks. Our investigations trace this fundamental issue down to the positional embeddings at the input stage. To address this, we propose a novel noise model, which is universally applicable to all ViTs. Specifically, the noise model dissects ViT outputs into three components: a semantics term free from noise artifacts and two artifact-related terms that are conditioned on pixel locations. Such a decomposition is achieved by enforcing cross-view feature consistency with neural fields in a per-image basis. This per-image optimization process extracts artifact-free features from raw ViT outputs, providing clean features for offline applications. Expanding the scope of our solution to support online functionality, we introduce a learnable denoiser to predict artifact-free features directly from unprocessed ViT outputs, which shows remarkable generalization capabilities to novel data without the need for per-image optimization. Our two-stage approach, termed Denoising Vision Transformers (DVT), does not require re-training existing pre-trained ViTs and is immediately applicable to any Transformer-based architecture. We evaluate our method on a variety of representative ViTs (DINO, MAE, DeiT-III, EVA02, CLIP, DINOv2, DINOv2-reg). Extensive evaluations demonstrate that our DVT consistently and significantly improves existing state-of-the-art general-purpose models in semantic and geometric tasks across multiple datasets (e.g., +3.84 mIoU). We hope our study will encourage a re-evaluation of ViT design, especially regarding the naive use of positional embeddings.
PDF312February 7, 2026