Equivariância Suave Sintonizável com Garantias
Tunable Soft Equivariance with Guarantees
March 27, 2026
Autores: Md Ashiqur Rahman, Lim Jun Hao, Jeremiah Jiang, Teck-Yian Lim, Raymond A. Yeh
cs.AI
Resumo
A equivariância é uma propriedade fundamental em modelos de visão computacional, contudo, a equivariância estrita raramente é satisfeita em dados do mundo real, o que pode limitar o desempenho de um modelo. Controlar o grau de equivariância é, portanto, desejável. Propomos uma estrutura geral para construir modelos suavemente equivariantes através da projeção dos pesos do modelo num subespaço concebido para o efeito. O método é aplicável a qualquer arquitetura pré-treinada e fornece limites teóricos para o erro de equivariância induzido. Empiricamente, demonstramos a eficácia do nosso método em múltiplas *backbones* pré-treinadas, incluindo ViT e ResNet, em tarefas de classificação de imagens, segmentação semântica e previsão de trajetórias humanas. De forma notável, a nossa abordagem melhora o desempenho enquanto reduz simultaneamente o erro de equivariância no competitivo benchmark ImageNet.
English
Equivariance is a fundamental property in computer vision models, yet strict equivariance is rarely satisfied in real-world data, which can limit a model's performance. Controlling the degree of equivariance is therefore desirable. We propose a general framework for constructing soft equivariant models by projecting the model weights into a designed subspace. The method applies to any pre-trained architecture and provides theoretical bounds on the induced equivariance error. Empirically, we demonstrate the effectiveness of our method on multiple pre-trained backbones, including ViT and ResNet, across image classification, semantic segmentation, and human-trajectory prediction tasks. Notably, our approach improves the performance while simultaneously reducing equivariance error on the competitive ImageNet benchmark.