ChatPaper.aiChatPaper

DreamCAD: Scalabilità della Generazione CAD Multi-modale mediante Superfici Parametriche Differenziabili

DreamCAD: Scaling Multi-modal CAD Generation using Differentiable Parametric Surfaces

March 5, 2026
Autori: Mohammad Sadil Khan, Muhammad Usama, Rolandos Alexandros Potamias, Didier Stricker, Muhammad Zeshan Afzal, Jiankang Deng, Ismail Elezi
cs.AI

Abstract

La progettazione assistita da computer (CAD) si basa su rappresentazioni geometriche strutturate e modificabili, tuttavia i metodi generativi esistenti sono limitati da piccoli dataset annotati con cronologie di progettazione esplicite o etichette di rappresentazione del contorno (BRep). Nel frattempo, milioni di mesh 3D non annotate rimangono inutilizzate, limitando i progressi nella generazione scalabile di CAD. Per affrontare questo problema, proponiamo DreamCAD, un framework generativo multimodale che produce direttamente BRep modificabili a partire da supervisione a livello di punti, senza annotazioni specifiche per CAD. DreamCAD rappresenta ogni BRep come un insieme di patch parametriche (ad esempio, superfici di Bézier) e utilizza un metodo di tassellazione differenziabile per generare mesh. Ciò consente l'addestramento su larga scala su dataset 3D ricostruendo al contempo superfici connesse e modificabili. Inoltre, introduciamo CADCap-1M, il più grande dataset di captioning per CAD fino ad oggi, con oltre 1 milione di descrizioni generate utilizzando GPT-5 per far avanzare la ricerca sul text-to-CAD. DreamCAD raggiunge prestazioni all'avanguardia sui benchmark ABC e Objaverse attraverso le modalità testo, immagine e punto, migliorando la fedeltà geometrica e superando il 75% di preferenza degli utenti. Codice e dataset saranno resi pubblicamente disponibili.
English
Computer-Aided Design (CAD) relies on structured and editable geometric representations, yet existing generative methods are constrained by small annotated datasets with explicit design histories or boundary representation (BRep) labels. Meanwhile, millions of unannotated 3D meshes remain untapped, limiting progress in scalable CAD generation. To address this, we propose DreamCAD, a multi-modal generative framework that directly produces editable BReps from point-level supervision, without CAD-specific annotations. DreamCAD represents each BRep as a set of parametric patches (e.g., Bézier surfaces) and uses a differentiable tessellation method to generate meshes. This enables large-scale training on 3D datasets while reconstructing connected and editable surfaces. Furthermore, we introduce CADCap-1M, the largest CAD captioning dataset to date, with 1M+ descriptions generated using GPT-5 for advancing text-to-CAD research. DreamCAD achieves state-of-the-art performance on ABC and Objaverse benchmarks across text, image, and point modalities, improving geometric fidelity and surpassing 75% user preference. Code and dataset will be publicly available.
PDF22March 10, 2026