ChatPaper.aiChatPaper

Condition-Aware Neuraal Netwerk voor Gecontroleerde Beeldgeneratie

Condition-Aware Neural Network for Controlled Image Generation

April 1, 2024
Auteurs: Han Cai, Muyang Li, Zhuoyang Zhang, Qinsheng Zhang, Ming-Yu Liu, Song Han
cs.AI

Samenvatting

We presenteren Condition-Aware Neural Network (CAN), een nieuwe methode voor het toevoegen van controle aan beeldgeneratieve modellen. In lijn met eerdere conditionele controlemethoden, regelt CAN het beeldgeneratieproces door het gewicht van het neuraal netwerk dynamisch te manipuleren. Dit wordt bereikt door een condition-aware gewichtsgeneratiemodule te introduceren die conditionele gewichten genereert voor convolutie/lineaire lagen op basis van de invoervoorwaarde. We testen CAN op klasse-conditionele beeldgeneratie op ImageNet en tekst-naar-beeldgeneratie op COCO. CAN levert consistent significante verbeteringen voor diffusietransformermodellen, waaronder DiT en UViT. In het bijzonder behaalt CAN in combinatie met EfficientViT (CaT) een FID van 2,78 op ImageNet 512x512, wat DiT-XL/2 overtreft terwijl het 52x minder MACs per samplingstap vereist.
English
We present Condition-Aware Neural Network (CAN), a new method for adding control to image generative models. In parallel to prior conditional control methods, CAN controls the image generation process by dynamically manipulating the weight of the neural network. This is achieved by introducing a condition-aware weight generation module that generates conditional weight for convolution/linear layers based on the input condition. We test CAN on class-conditional image generation on ImageNet and text-to-image generation on COCO. CAN consistently delivers significant improvements for diffusion transformer models, including DiT and UViT. In particular, CAN combined with EfficientViT (CaT) achieves 2.78 FID on ImageNet 512x512, surpassing DiT-XL/2 while requiring 52x fewer MACs per sampling step.
PDF131February 8, 2026