ChiseLLM : Libérer la puissance des LLM de raisonnement pour le développement agile de matériel avec Chisel
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
Auteurs: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
Résumé
La demande croissante pour les architectures spécifiques à un domaine (Domain-Specific Architecture, DSA) a stimulé le développement de la méthodologie agile de développement matériel (Agile Hardware Development Methodology, AHDM). Les langages de construction matérielle (Hardware Construction Language, HCL) comme Chisel offrent des fonctionnalités d'abstraction de haut niveau, ce qui en fait un langage idéal pour l'AHDM basée sur HCL. Bien que les modèles de langage de grande taille (Large Language Models, LLMs) excellent dans les tâches de génération de code, ils rencontrent encore des difficultés avec la génération de Chisel, notamment en ce qui concerne la correction syntaxique et la variabilité de conception. Les modèles de raisonnement récents ont considérablement amélioré les capacités de génération de code grâce à des techniques de mise à l'échelle au moment du test. Cependant, nous avons constaté que les modèles de raisonnement sans adaptation de domaine ne peuvent pas apporter d'avantages substantiels aux tâches de génération de code Chisel. Cet article présente ChiseLLM, une solution comprenant le traitement et la transformation des données, la synthèse de traces de raisonnement guidée par des prompts, et l'entraînement de modèles adaptés au domaine. Nous avons construit des ensembles de données de haute qualité à partir de ressources publiques de code RTL et avons guidé le modèle à adopter des schémas de pensée structurés grâce à des méthodes d'amélioration des prompts. Les expériences démontrent que nos modèles ChiseLLM-7B et ChiseLLM-32B ont amélioré la correction syntaxique de 18,85 % et 26,32 % respectivement par rapport aux modèles de base, tout en augmentant la capacité de variabilité de conception de 47,58 % par rapport aux modèles de raisonnement de référence. Nos ensembles de données et modèles sont disponibles publiquement, offrant des modèles performants et économiques pour l'AHDM basée sur HCL, et fournissant une base efficace pour les recherches futures. Dépôt Github : https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary