LayerTracer : Synthèse SVG en couches alignée sur la cognition via le Transformer de diffusion
LayerTracer: Cognitive-Aligned Layered SVG Synthesis via Diffusion Transformer
February 3, 2025
Auteurs: Yiren Song, Danze Chen, Mike Zheng Shou
cs.AI
Résumé
La génération de SVG en couches alignées sur la cognition reste un défi en raison des tendances des méthodes existantes à produire soit des sorties simplifiées en une seule couche, soit des redondances de formes induites par l'optimisation. Nous proposons LayerTracer, un cadre basé sur un transformateur de diffusion qui comble cette lacune en apprenant les processus de création de SVG en couches des concepteurs à partir d'un nouvel ensemble de données d'opérations de conception séquentielles. Notre approche fonctionne en deux phases : Tout d'abord, un DiT conditionné par du texte génère des plans de construction multi-phasés rasterisés qui simulent les flux de travail de conception humaine. Ensuite, la vectorisation par couche avec déduplication de chemins produit des SVG propres et modifiables. Pour la vectorisation d'image, nous introduisons un mécanisme de diffusion conditionnelle qui encode les images de référence en jetons latents, guidant la reconstruction hiérarchique tout en préservant l'intégrité structurelle. Des expériences approfondies démontrent les performances supérieures de LayerTracer par rapport aux références basées sur l'optimisation et les réseaux neuronaux, tant en termes de qualité de génération que de modifiabilité, alignant efficacement les vecteurs générés par l'IA avec la cognition professionnelle en conception.
English
Generating cognitive-aligned layered SVGs remains challenging due to existing
methods' tendencies toward either oversimplified single-layer outputs or
optimization-induced shape redundancies. We propose LayerTracer, a diffusion
transformer based framework that bridges this gap by learning designers'
layered SVG creation processes from a novel dataset of sequential design
operations. Our approach operates in two phases: First, a text-conditioned DiT
generates multi-phase rasterized construction blueprints that simulate human
design workflows. Second, layer-wise vectorization with path deduplication
produces clean, editable SVGs. For image vectorization, we introduce a
conditional diffusion mechanism that encodes reference images into latent
tokens, guiding hierarchical reconstruction while preserving structural
integrity. Extensive experiments demonstrate LayerTracer's superior performance
against optimization-based and neural baselines in both generation quality and
editability, effectively aligning AI-generated vectors with professional design
cognition.Summary
AI-Generated Summary