ChatPaper.aiChatPaper

LucidFlux : Restauration universelle d'images sans légende via un transformeur de diffusion à grande échelle

LucidFlux: Caption-Free Universal Image Restoration via a Large-Scale Diffusion Transformer

September 26, 2025
papers.authors: Song Fei, Tian Ye, Lujia Wang, Lei Zhu
cs.AI

papers.abstract

La restauration universelle d'images (UIR) vise à récupérer des images dégradées par des mélanges inconnus tout en préservant la sémantique -- des conditions dans lesquelles les restaurateurs discriminatifs et les priors de diffusion basés sur UNet ont souvent tendance à lisser excessivement, à halluciner ou à dériver. Nous présentons LucidFlux, un cadre UIR sans légende qui adapte un grand transformateur de diffusion (Flux.1) sans légendes d'images. LucidFlux introduit un conditionneur léger à double branche qui injecte des signaux provenant de l'entrée dégradée et d'un proxy légèrement restauré pour ancrer respectivement la géométrie et supprimer les artefacts. Ensuite, un plan de modulation adaptatif en fonction du pas de temps et de la couche est conçu pour acheminer ces indices à travers la hiérarchie du backbone, afin de produire des mises à jour allant du grossier au fin et conscientes du contexte, qui protègent la structure globale tout en restaurant la texture. Par la suite, pour éviter la latence et l'instabilité des invites textuelles ou des légendes MLLM, nous appliquons un alignement sémantique sans légende via des caractéristiques SigLIP extraites du proxy. Un pipeline de curation scalable filtre en outre des données à grande échelle pour une supervision riche en structure. Sur des benchmarks synthétiques et in-the-wild, LucidFlux surpasse systématiquement des bases de référence open-source et commerciales solides, et des études d'ablation vérifient la nécessité de chaque composant. LucidFlux montre que, pour les grands DiTs, quand, où et sur quoi conditionner -- plutôt que d'ajouter des paramètres ou de s'appuyer sur des invites textuelles -- est le levier principal pour une restauration universelle d'images robuste et sans légende dans des conditions réelles.
English
Universal image restoration (UIR) aims to recover images degraded by unknown mixtures while preserving semantics -- conditions under which discriminative restorers and UNet-based diffusion priors often oversmooth, hallucinate, or drift. We present LucidFlux, a caption-free UIR framework that adapts a large diffusion transformer (Flux.1) without image captions. LucidFlux introduces a lightweight dual-branch conditioner that injects signals from the degraded input and a lightly restored proxy to respectively anchor geometry and suppress artifacts. Then, a timestep- and layer-adaptive modulation schedule is designed to route these cues across the backbone's hierarchy, in order to yield coarse-to-fine and context-aware updates that protect the global structure while recovering texture. After that, to avoid the latency and instability of text prompts or MLLM captions, we enforce caption-free semantic alignment via SigLIP features extracted from the proxy. A scalable curation pipeline further filters large-scale data for structure-rich supervision. Across synthetic and in-the-wild benchmarks, LucidFlux consistently outperforms strong open-source and commercial baselines, and ablation studies verify the necessity of each component. LucidFlux shows that, for large DiTs, when, where, and what to condition on -- rather than adding parameters or relying on text prompts -- is the governing lever for robust and caption-free universal image restoration in the wild.
PDF173September 29, 2025