ChatPaper.aiChatPaper

Afschaalbare Zachte Equivariantie met Gegarandeerde Eigenschappen

Tunable Soft Equivariance with Guarantees

March 27, 2026
Auteurs: Md Ashiqur Rahman, Lim Jun Hao, Jeremiah Jiang, Teck-Yian Lim, Raymond A. Yeh
cs.AI

Samenvatting

Equivariantie is een fundamentele eigenschap in computervisie-modellen, maar strikte equivariantie wordt zelden bereikt in real-world data, wat de prestaties van een model kan beperken. Het controleren van de mate van equivariantie is daarom wenselijk. Wij stellen een algemeen raamwerk voor voor het construeren van zachte equivariante modellen door de modelgewichten te projecteren in een ontworpen deelruimte. De methode is van toepassing op elke voorgetrainde architectuur en biedt theoretische grenzen voor de geïnduceerde equivariantiefout. Empirisch demonstreren we de effectiviteit van onze methode op meerdere voorgetrainde backbones, waaronder ViT en ResNet, voor taken zoals beeldclassificatie, semantische segmentatie en voorspelling van menselijke trajecten. Opmerkelijk is dat onze aanpak de prestaties verbetert en tegelijkertijd de equivariantiefout vermindert op de competitieve ImageNet-benchmark.
English
Equivariance is a fundamental property in computer vision models, yet strict equivariance is rarely satisfied in real-world data, which can limit a model's performance. Controlling the degree of equivariance is therefore desirable. We propose a general framework for constructing soft equivariant models by projecting the model weights into a designed subspace. The method applies to any pre-trained architecture and provides theoretical bounds on the induced equivariance error. Empirically, we demonstrate the effectiveness of our method on multiple pre-trained backbones, including ViT and ResNet, across image classification, semantic segmentation, and human-trajectory prediction tasks. Notably, our approach improves the performance while simultaneously reducing equivariance error on the competitive ImageNet benchmark.
PDF52April 17, 2026