ChiseLLM: 推論LLMの力を解き放つ - Chiselアジャイルハードウェア開発への応用
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
著者: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
要旨
ドメイン特化アーキテクチャ(DSA)に対する需要の高まりが、アジャイルハードウェア開発手法(AHDM)の開発を推進してきた。Chiselのようなハードウェア構築言語(HCL)は高レベルの抽象化機能を提供し、HCLベースのAHDMに理想的な言語となっている。大規模言語モデル(LLM)はコード生成タスクにおいて優れた性能を発揮するが、Chiselの生成においては特に構文の正確性と設計の多様性に関して課題を抱えている。最近の推論モデルは、テスト時のスケーリング技術を通じてコード生成能力を大幅に向上させた。しかし、ドメイン適応なしの推論モデルでは、Chiselコード生成タスクに大きな利益をもたらすことができないことがわかった。本論文では、データ処理と変換、プロンプト誘導型推論トレース合成、ドメイン適応モデルトレーニングからなるChiseLLMというソリューションを提案する。公開されているRTLコードリソースから高品質なデータセットを構築し、プロンプト拡張手法を通じてモデルに構造化された思考パターンを採用するよう導いた。実験の結果、ChiseLLM-7BとChiseLLM-32Bモデルは、ベースモデルと比較して構文の正確性をそれぞれ18.85%と26.32%向上させ、ベースラインの推論モデルと比較して設計の多様性能力を47.58%向上させたことが示された。我々のデータセットとモデルは公開されており、HCLベースのAHDM向けに高性能でコスト効率の良いモデルを提供し、将来の研究のための効果的なベースラインを提供する。Githubリポジトリ: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary