Qwen-Image-Layered: Достижение внутренней редактируемости посредством декомпозиции по слоям
Qwen-Image-Layered: Towards Inherent Editability via Layer Decomposition
December 17, 2025
Авторы: Shengming Yin, Zekai Zhang, Zecheng Tang, Kaiyuan Gao, Xiao Xu, Kun Yan, Jiahao Li, Yilei Chen, Yuxiang Chen, Heung-Yeung Shum, Lionel M. Ni, Jingren Zhou, Junyang Lin, Chenfei Wu
cs.AI
Аннотация
Современные модели визуальной генерации часто сталкиваются с проблемами согласованности при редактировании изображений из-за природы растровых изображений, где всё визуальное содержание объединено в единый холст. В отличие от них, профессиональные инструменты дизайна используют послойное представление, позволяющее изолированно редактировать элементы, сохраняя согласованность. Вдохновлённые этим, мы представляем Qwen-Image-Layered — эндо-энд диффузионную модель, которая декомпозирует одиночное RGB-изображение на несколько семантически разъединённых RGBA-слоёв, обеспечивая врождённую редактируемость, когда каждый RGBA-слой можно независимо изменять, не затрагивая остальное содержимое. Для поддержки декомпозиции с переменным числом слоёв мы вводим три ключевых компонента: (1) RGBA-VAE для унификации латентных представлений RGB- и RGBA-изображений; (2) архитектуру VLD-MMDiT (Variable Layers Decomposition MMDiT), способную декомпозировать переменное количество слоёв изображения; и (3) стратегию многоэтапного обучения для адаптации предварительно обученной модели генерации изображений в многслойный декомпозер. Кроме того, для решения проблемы нехватки высококачественных многослойных изображений для обучения мы создали пайплайн для извлечения и аннотирования многослойных изображений из документов Photoshop (PSD). Эксперименты показывают, что наш метод значительно превосходит существующие подходы по качеству декомпозиции и устанавливает новую парадигму для согласованного редактирования изображений. Наш код и модели доступны по адресу https://github.com/QwenLM/Qwen-Image-Layered.
English
Recent visual generative models often struggle with consistency during image editing due to the entangled nature of raster images, where all visual content is fused into a single canvas. In contrast, professional design tools employ layered representations, allowing isolated edits while preserving consistency. Motivated by this, we propose Qwen-Image-Layered, an end-to-end diffusion model that decomposes a single RGB image into multiple semantically disentangled RGBA layers, enabling inherent editability, where each RGBA layer can be independently manipulated without affecting other content. To support variable-length decomposition, we introduce three key components: (1) an RGBA-VAE to unify the latent representations of RGB and RGBA images; (2) a VLD-MMDiT (Variable Layers Decomposition MMDiT) architecture capable of decomposing a variable number of image layers; and (3) a Multi-stage Training strategy to adapt a pretrained image generation model into a multilayer image decomposer. Furthermore, to address the scarcity of high-quality multilayer training images, we build a pipeline to extract and annotate multilayer images from Photoshop documents (PSD). Experiments demonstrate that our method significantly surpasses existing approaches in decomposition quality and establishes a new paradigm for consistent image editing. Our code and models are released on https://github.com/QwenLM/Qwen-Image-Layered{https://github.com/QwenLM/Qwen-Image-Layered}