ChiseLLM: Ontketen de Kracht van Redenerende LLM's voor Wendbare Hardwareontwikkeling met Chisel
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
Auteurs: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
Samenvatting
De groeiende vraag naar Domeinspecifieke Architectuur (DSA) heeft de ontwikkeling van de Agile Hardware Ontwikkelingsmethodologie (AHDM) gestimuleerd. Hardware Constructie Taal (HCL) zoals Chisel biedt hoogwaardige abstractiefuncties, waardoor het een ideale taal is voor HCL-gebaseerde AHDM. Hoewel Grote Taalmodellen (LLM's) uitblinken in codegeneratietaken, hebben ze nog steeds uitdagingen met Chisel-generatie, met name wat betreft syntaxisnauwkeurigheid en ontwerpvariabiliteit. Recente redeneermodellen hebben de codegeneratiecapaciteiten aanzienlijk verbeterd door technieken voor schaling tijdens testtijd. Wij hebben echter ontdekt dat redeneermodellen zonder domeinaanpassing geen substantiële voordelen kunnen bieden voor Chisel-codegeneratietaken. Dit artikel presenteert ChiseLLM, een oplossing bestaande uit gegevensverwerking en -transformatie, prompt-gestuurde redeneersporsynthese en domeinaangepaste modeltraining. We hebben hoogwaardige datasets geconstrueerd uit openbare RTL-codebronnen en het model begeleid om gestructureerde denkpatronen aan te nemen via promptverbeteringsmethoden. Experimenten tonen aan dat onze ChiseLLM-7B en ChiseLLM-32B modellen de syntaxisnauwkeurigheid respectievelijk met 18,85% en 26,32% verbeterden ten opzichte van basismodellen, terwijl de ontwerpvariabiliteitsvaardigheid met 47,58% toenam in vergelijking met baseline redeneermodellen. Onze datasets en modellen zijn publiekelijk beschikbaar, wat hoogwaardige, kosteneffectieve modellen biedt voor HCL-gebaseerde AHDM en een effectieve baseline biedt voor toekomstig onderzoek. Github repository: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary