ChiseLLM: Liberando el Poder de los Modelos de Lenguaje de Razonamiento para el Desarrollo Ágil de Hardware con Chisel
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
Autores: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
Resumen
La creciente demanda de Arquitecturas Específicas de Dominio (DSA) ha impulsado el desarrollo de la Metodología de Desarrollo de Hardware Ágil (AHDM). Los Lenguajes de Construcción de Hardware (HCL), como Chisel, ofrecen características de abstracción de alto nivel, lo que los convierte en un lenguaje ideal para AHDM basado en HCL. Si bien los Modelos de Lenguaje de Gran Escala (LLMs) sobresalen en tareas de generación de código, aún enfrentan desafíos con la generación de Chisel, particularmente en cuanto a la corrección sintáctica y la variabilidad del diseño. Los modelos de razonamiento recientes han mejorado significativamente las capacidades de generación de código mediante técnicas de escalado en tiempo de prueba. Sin embargo, descubrimos que los modelos de razonamiento sin adaptación de dominio no pueden aportar beneficios sustanciales a las tareas de generación de código en Chisel. Este artículo presenta ChiseLLM, una solución que incluye procesamiento y transformación de datos, síntesis de trazas de razonamiento guiadas por prompts y entrenamiento de modelos adaptados al dominio. Construimos conjuntos de datos de alta calidad a partir de recursos públicos de código RTL y guiamos al modelo para adoptar patrones de pensamiento estructurado mediante métodos de mejora de prompts. Los experimentos demuestran que nuestros modelos ChiseLLM-7B y ChiseLLM-32B mejoraron la corrección sintáctica en un 18.85% y 26.32%, respectivamente, en comparación con los modelos base, mientras que aumentaron la capacidad de diseño de variabilidad en un 47.58% en comparación con los modelos de razonamiento de referencia. Nuestros conjuntos de datos y modelos están disponibles públicamente, proporcionando modelos de alto rendimiento y rentables para AHDM basado en HCL, y ofreciendo una línea base efectiva para futuras investigaciones. Repositorio de Github: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary