LayerTracer: Síntesis de SVG en capas alineada cognitivamente a través del Transformer de Difusión
LayerTracer: Cognitive-Aligned Layered SVG Synthesis via Diffusion Transformer
February 3, 2025
Autores: Yiren Song, Danze Chen, Mike Zheng Shou
cs.AI
Resumen
La generación de SVGs en capas alineados cognitivamente sigue siendo un desafío debido a las tendencias de los métodos existentes hacia salidas de una sola capa demasiado simplificadas o redundancias de formas inducidas por la optimización. Proponemos LayerTracer, un marco basado en transformadores de difusión que colma esta brecha al aprender los procesos de creación de SVGs en capas de los diseñadores a partir de un nuevo conjunto de datos de operaciones de diseño secuenciales. Nuestro enfoque opera en dos fases: primero, un DiT condicionado por texto genera planos de construcción rasterizados de múltiples fases que simulan los flujos de trabajo de diseño humano. En segundo lugar, la vectorización por capas con deduplicación de rutas produce SVGs limpios y editables. Para la vectorización de imágenes, introducimos un mecanismo de difusión condicional que codifica imágenes de referencia en tokens latentes, guiando la reconstrucción jerárquica mientras se preserva la integridad estructural. Experimentos extensos demuestran el rendimiento superior de LayerTracer frente a baselines basados en optimización y redes neuronales tanto en calidad de generación como en capacidad de edición, alineando efectivamente los vectores generados por IA con la cognición del diseño profesional.
English
Generating cognitive-aligned layered SVGs remains challenging due to existing
methods' tendencies toward either oversimplified single-layer outputs or
optimization-induced shape redundancies. We propose LayerTracer, a diffusion
transformer based framework that bridges this gap by learning designers'
layered SVG creation processes from a novel dataset of sequential design
operations. Our approach operates in two phases: First, a text-conditioned DiT
generates multi-phase rasterized construction blueprints that simulate human
design workflows. Second, layer-wise vectorization with path deduplication
produces clean, editable SVGs. For image vectorization, we introduce a
conditional diffusion mechanism that encodes reference images into latent
tokens, guiding hierarchical reconstruction while preserving structural
integrity. Extensive experiments demonstrate LayerTracer's superior performance
against optimization-based and neural baselines in both generation quality and
editability, effectively aligning AI-generated vectors with professional design
cognition.Summary
AI-Generated Summary