ChatPaper.aiChatPaper

LayerTracer : Synthèse SVG en couches alignée sur la cognition via le Transformer de diffusion

LayerTracer: Cognitive-Aligned Layered SVG Synthesis via Diffusion Transformer

February 3, 2025
Auteurs: Yiren Song, Danze Chen, Mike Zheng Shou
cs.AI

Résumé

La génération de SVG en couches alignées sur la cognition reste un défi en raison des tendances des méthodes existantes à produire soit des sorties simplifiées en une seule couche, soit des redondances de formes induites par l'optimisation. Nous proposons LayerTracer, un cadre basé sur un transformateur de diffusion qui comble cette lacune en apprenant les processus de création de SVG en couches des concepteurs à partir d'un nouvel ensemble de données d'opérations de conception séquentielles. Notre approche fonctionne en deux phases : Tout d'abord, un DiT conditionné par du texte génère des plans de construction multi-phasés rasterisés qui simulent les flux de travail de conception humaine. Ensuite, la vectorisation par couche avec déduplication de chemins produit des SVG propres et modifiables. Pour la vectorisation d'image, nous introduisons un mécanisme de diffusion conditionnelle qui encode les images de référence en jetons latents, guidant la reconstruction hiérarchique tout en préservant l'intégrité structurelle. Des expériences approfondies démontrent les performances supérieures de LayerTracer par rapport aux références basées sur l'optimisation et les réseaux neuronaux, tant en termes de qualité de génération que de modifiabilité, alignant efficacement les vecteurs générés par l'IA avec la cognition professionnelle en conception.
English
Generating cognitive-aligned layered SVGs remains challenging due to existing methods' tendencies toward either oversimplified single-layer outputs or optimization-induced shape redundancies. We propose LayerTracer, a diffusion transformer based framework that bridges this gap by learning designers' layered SVG creation processes from a novel dataset of sequential design operations. Our approach operates in two phases: First, a text-conditioned DiT generates multi-phase rasterized construction blueprints that simulate human design workflows. Second, layer-wise vectorization with path deduplication produces clean, editable SVGs. For image vectorization, we introduce a conditional diffusion mechanism that encodes reference images into latent tokens, guiding hierarchical reconstruction while preserving structural integrity. Extensive experiments demonstrate LayerTracer's superior performance against optimization-based and neural baselines in both generation quality and editability, effectively aligning AI-generated vectors with professional design cognition.

Summary

AI-Generated Summary

PDF204February 6, 2025