ChatPaper.aiChatPaper

Generación de CAD a partir de texto mediante la incorporación de retroalimentación visual en modelos de lenguaje grandes

Text-to-CAD Generation Through Infusing Visual Feedback in Large Language Models

January 31, 2025
Autores: Ruiyu Wang, Yu Yuan, Shizhao Sun, Jiang Bian
cs.AI

Resumen

La creación de modelos de Diseño Asistido por Computadora (CAD) requiere una experiencia y esfuerzo significativos. El Texto-a-CAD, que convierte descripciones textuales en secuencias paramétricas CAD, es crucial para agilizar este proceso. Estudios recientes han utilizado secuencias paramétricas de verdad básica, conocidas como señales secuenciales, como supervisión para lograr este objetivo. Sin embargo, los modelos CAD son inherentemente multimodales, compuestos por secuencias paramétricas y objetos visuales renderizados correspondientes. Además, el proceso de renderizado de secuencias paramétricas a objetos visuales es de muchos a uno. Por lo tanto, tanto las señales secuenciales como visuales son críticas para un entrenamiento efectivo. En este trabajo, presentamos CADFusion, un marco que utiliza Modelos de Lenguaje Grandes (LLMs) como base y alterna entre dos etapas de entrenamiento: la etapa de aprendizaje secuencial (SL) y la etapa de retroalimentación visual (VF). En la etapa SL, entrenamos LLMs utilizando secuencias paramétricas de verdad básica, lo que permite la generación de secuencias paramétricas lógicamente coherentes. En la etapa VF, recompensamos las secuencias paramétricas que se renderizan en objetos visualmente preferidos y penalizamos aquellas que no lo hacen, permitiendo a los LLMs aprender cómo se perciben y evalúan los objetos visuales renderizados. Estas dos etapas alternan a lo largo del entrenamiento, asegurando un aprendizaje equilibrado y preservando los beneficios de ambas señales. Experimentos demuestran que CADFusion mejora significativamente el rendimiento, tanto cualitativa como cuantitativamente.
English
Creating Computer-Aided Design (CAD) models requires significant expertise and effort. Text-to-CAD, which converts textual descriptions into CAD parametric sequences, is crucial in streamlining this process. Recent studies have utilized ground-truth parametric sequences, known as sequential signals, as supervision to achieve this goal. However, CAD models are inherently multimodal, comprising parametric sequences and corresponding rendered visual objects. Besides,the rendering process from parametric sequences to visual objects is many-to-one. Therefore, both sequential and visual signals are critical for effective training. In this work, we introduce CADFusion, a framework that uses Large Language Models (LLMs) as the backbone and alternates between two training stages: the sequential learning (SL) stage and the visual feedback (VF) stage. In the SL stage, we train LLMs using ground-truth parametric sequences, enabling the generation of logically coherent parametric sequences. In the VF stage, we reward parametric sequences that render into visually preferred objects and penalize those that do not, allowing LLMs to learn how rendered visual objects are perceived and evaluated. These two stages alternate throughout the training, ensuring balanced learning and preserving benefits of both signals. Experiments demonstrate that CADFusion significantly improves performance, both qualitatively and quantitatively.

Summary

AI-Generated Summary

PDF102February 6, 2025