ChatPaper.aiChatPaper

Modélisation d'images équivariantes

Equivariant Image Modeling

March 24, 2025
Auteurs: Ruixiao Dong, Mengde Xu, Zigang Geng, Li Li, Han Hu, Shuyang Gu
cs.AI

Résumé

Les modèles génératifs actuels, tels que les approches autorégressives et de diffusion, décomposent l'apprentissage de distributions de données en haute dimension en une série de sous-tâches plus simples. Cependant, des conflits inhérents surviennent lors de l'optimisation conjointe de ces sous-tâches, et les solutions existantes ne parviennent pas à résoudre ces conflits sans sacrifier l'efficacité ou l'évolutivité. Nous proposons un nouveau cadre de modélisation d'images équivariantes qui aligne intrinsèquement les objectifs d'optimisation entre les sous-tâches en exploitant l'invariance par translation des signaux visuels naturels. Notre méthode introduit (1) une tokenisation colonne par colonne qui renforce la symétrie translationnelle le long de l'axe horizontal, et (2) une attention causale fenêtrée qui impose des relations contextuelles cohérentes entre les positions. Évaluée sur la génération d'images conditionnées par classe sur ImageNet à une résolution de 256x256, notre approche atteint des performances comparables aux modèles AR de pointe tout en utilisant moins de ressources computationnelles. Une analyse systématique démontre qu'une équivariance améliorée réduit les conflits inter-tâches, améliorant significativement la généralisation zero-shot et permettant la synthèse d'images ultra-longues. Ce travail établit le premier cadre pour la décomposition alignée sur les tâches en modélisation générative, offrant des insights sur le partage efficace des paramètres et l'optimisation sans conflits. Le code et les modèles sont disponibles publiquement à l'adresse https://github.com/drx-code/EquivariantModeling.
English
Current generative models, such as autoregressive and diffusion approaches, decompose high-dimensional data distribution learning into a series of simpler subtasks. However, inherent conflicts arise during the joint optimization of these subtasks, and existing solutions fail to resolve such conflicts without sacrificing efficiency or scalability. We propose a novel equivariant image modeling framework that inherently aligns optimization targets across subtasks by leveraging the translation invariance of natural visual signals. Our method introduces (1) column-wise tokenization which enhances translational symmetry along the horizontal axis, and (2) windowed causal attention which enforces consistent contextual relationships across positions. Evaluated on class-conditioned ImageNet generation at 256x256 resolution, our approach achieves performance comparable to state-of-the-art AR models while using fewer computational resources. Systematic analysis demonstrates that enhanced equivariance reduces inter-task conflicts, significantly improving zero-shot generalization and enabling ultra-long image synthesis. This work establishes the first framework for task-aligned decomposition in generative modeling, offering insights into efficient parameter sharing and conflict-free optimization. The code and models are publicly available at https://github.com/drx-code/EquivariantModeling.

Summary

AI-Generated Summary

PDF151March 25, 2025