ChiseLLM: Die Nutzung der Fähigkeiten von Reasoning-LLMs für agile Hardware-Entwicklung mit Chisel
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
Autoren: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
Zusammenfassung
Die wachsende Nachfrage nach domänenspezifischen Architekturen (Domain-Specific Architecture, DSA) hat die Entwicklung der agilen Hardware-Entwicklungsmethodik (Agile Hardware Development Methodology, AHDM) vorangetrieben. Hardware-Beschreibungssprachen (Hardware Construction Language, HCL) wie Chisel bieten Abstraktionen auf hohem Niveau und eignen sich daher ideal für HCL-basierte AHDM. Obwohl große Sprachmodelle (Large Language Models, LLMs) bei Code-Generierungsaufgaben hervorragende Leistungen erbringen, stehen sie bei der Chisel-Generierung weiterhin vor Herausforderungen, insbesondere in Bezug auf Syntaxkorrektheit und Designvariabilität. Neuere Reasoning-Modelle haben die Fähigkeiten zur Code-Generierung durch Test-Time-Scaling-Techniken erheblich verbessert. Wir haben jedoch festgestellt, dass Reasoning-Modelle ohne Domänenanpassung keine wesentlichen Vorteile für Chisel-Code-Generierungsaufgaben bieten. Dieses Paper stellt ChiseLLM vor, eine Lösung, die aus Datenverarbeitung und -transformation, promptgesteuerter Reasoning-Trace-Synthese und domänenangepasstem Modelltraining besteht. Wir haben hochwertige Datensätze aus öffentlichen RTL-Code-Ressourcen erstellt und das Modell durch Prompt-Verbesserungsmethoden dazu angeleitet, strukturierte Denkmuster zu übernehmen. Experimente zeigen, dass unsere ChiseLLM-7B- und ChiseLLM-32B-Modelle die Syntaxkorrektheit um 18,85 % bzw. 26,32 % gegenüber den Basismodellen verbesserten, während die Fähigkeit zur Designvariabilität im Vergleich zu Baseline-Reasoning-Modellen um 47,58 % gesteigert wurde. Unsere Datensätze und Modelle sind öffentlich verfügbar und bieten leistungsstarke, kosteneffiziente Modelle für HCL-basierte AHDM sowie eine effektive Baseline für zukünftige Forschungen. Github-Repository: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary