ChiseLLM: Sfruttare la Potenza dei Modelli Linguistici di Ragionamento per lo Sviluppo Agile di Hardware con Chisel
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
Autori: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
Abstract
La crescente domanda di Architetture Specifiche per Dominio (DSA) ha guidato lo sviluppo della Metodologia Agile per lo Sviluppo Hardware (AHDM). I Linguaggi di Costruzione Hardware (HCL) come Chisel offrono funzionalità di astrazione di alto livello, rendendoli ideali per l'AHDM basato su HCL. Sebbene i Modelli Linguistici di Grande Dimensione (LLM) eccellano nei compiti di generazione di codice, incontrano ancora difficoltà con la generazione di Chisel, in particolare riguardo alla correttezza sintattica e alla variabilità del design. Modelli di ragionamento recenti hanno migliorato significativamente le capacità di generazione di codice attraverso tecniche di scalatura al momento del test. Tuttavia, abbiamo riscontrato che i modelli di ragionamento senza adattamento al dominio non possono portare benefici sostanziali ai compiti di generazione di codice Chisel. Questo articolo presenta ChiseLLM, una soluzione che comprende elaborazione e trasformazione dei dati, sintesi di tracce di ragionamento guidate da prompt e addestramento di modelli adattati al dominio. Abbiamo costruito dataset di alta qualità da risorse pubbliche di codice RTL e guidato il modello ad adottare schemi di pensiero strutturati attraverso metodi di miglioramento del prompt. Gli esperimenti dimostrano che i nostri modelli ChiseLLM-7B e ChiseLLM-32B hanno migliorato la correttezza sintattica rispettivamente del 18,85% e del 26,32% rispetto ai modelli base, aumentando la capacità di variabilità del design del 47,58% rispetto ai modelli di ragionamento di riferimento. I nostri dataset e modelli sono pubblicamente disponibili, fornendo modelli ad alte prestazioni e convenienti per l'AHDM basato su HCL, e offrendo una baseline efficace per la ricerca futura. Repository Github: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary