DreamCAD: Escalado de Generación de CAD Multi-modal mediante Superficies Paramétricas Diferenciables
DreamCAD: Scaling Multi-modal CAD Generation using Differentiable Parametric Surfaces
March 5, 2026
Autores: Mohammad Sadil Khan, Muhammad Usama, Rolandos Alexandros Potamias, Didier Stricker, Muhammad Zeshan Afzal, Jiankang Deng, Ismail Elezi
cs.AI
Resumen
El Diseño Asistido por Computadora (CAD) depende de representaciones geométricas estructuradas y editables; sin embargo, los métodos generativos existentes están limitados por conjuntos de datos anotados pequeños que contienen historiales de diseño explícitos o etiquetas de representación de límites (BRep). Mientras tanto, millones de mallas 3D sin anotaciones permanecen sin explotar, lo que limita el progreso en la generación escalable de CAD. Para abordar esto, proponemos DreamCAD, un marco generativo multimodal que produce directamente BReps editables a partir de supervisión a nivel de puntos, sin anotaciones específicas de CAD. DreamCAD representa cada BRep como un conjunto de parches paramétricos (por ejemplo, superficies de Bézier) y utiliza un método de teselación diferenciable para generar mallas. Esto permite el entrenamiento a gran escala en conjuntos de datos 3D mientras se reconstruyen superficies conectadas y editables. Además, presentamos CADCap-1M, el mayor conjunto de datos de subtitulado de CAD hasta la fecha, con más de 1 millón de descripciones generadas usando GPT-5 para impulsar la investigación de texto a CAD. DreamCAD logra un rendimiento de vanguardia en los benchmarks ABC y Objaverse a través de modalidades de texto, imagen y puntos, mejorando la fidelidad geométrica y superando el 75% de preferencia de los usuarios. El código y el conjunto de datos estarán disponibles públicamente.
English
Computer-Aided Design (CAD) relies on structured and editable geometric representations, yet existing generative methods are constrained by small annotated datasets with explicit design histories or boundary representation (BRep) labels. Meanwhile, millions of unannotated 3D meshes remain untapped, limiting progress in scalable CAD generation. To address this, we propose DreamCAD, a multi-modal generative framework that directly produces editable BReps from point-level supervision, without CAD-specific annotations. DreamCAD represents each BRep as a set of parametric patches (e.g., Bézier surfaces) and uses a differentiable tessellation method to generate meshes. This enables large-scale training on 3D datasets while reconstructing connected and editable surfaces. Furthermore, we introduce CADCap-1M, the largest CAD captioning dataset to date, with 1M+ descriptions generated using GPT-5 for advancing text-to-CAD research. DreamCAD achieves state-of-the-art performance on ABC and Objaverse benchmarks across text, image, and point modalities, improving geometric fidelity and surpassing 75% user preference. Code and dataset will be publicly available.