ChiseLLM: Chisel 애자일 하드웨어 개발을 위한 추론 LLM의 힘을 발휘하다
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
저자: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
초록
도메인 특화 아키텍처(Domain-Specific Architecture, DSA)에 대한 수요가 증가함에 따라, 애자일 하드웨어 개발 방법론(Agile Hardware Development Methodology, AHDM)의 개발이 촉진되고 있습니다. Chisel과 같은 하드웨어 구성 언어(Hardware Construction Language, HCL)는 높은 수준의 추상화 기능을 제공하여 HCL 기반 AHDM에 이상적인 언어로 자리 잡고 있습니다. 대형 언어 모델(Large Language Models, LLMs)은 코드 생성 작업에서 뛰어난 성능을 보이지만, 특히 구문 정확성과 설계 다양성 측면에서 Chisel 생성에는 여전히 어려움을 겪고 있습니다. 최근의 추론 모델은 테스트 시간 스케일링 기법을 통해 코드 생성 능력을 크게 향상시켰습니다. 그러나 도메인 적응 없이 사용된 추론 모델은 Chisel 코드 생성 작업에 큰 이점을 가져다주지 못한다는 것을 발견했습니다. 본 논문은 데이터 처리 및 변환, 프롬프트 기반 추론 트레이스 합성, 도메인 적응 모델 학습을 포함한 ChiseLLM 솔루션을 제시합니다. 공개된 RTL 코드 리소스로부터 고품질 데이터셋을 구축하고, 프롬프트 강화 방법을 통해 모델이 구조화된 사고 패턴을 채택하도록 유도했습니다. 실험 결과, 우리의 ChiseLLM-7B와 ChiseLLM-32B 모델은 기본 모델 대비 구문 정확성을 각각 18.85%와 26.32% 향상시켰으며, 기준 추론 모델 대비 설계 다양성 능력을 47.58% 증가시켰습니다. 우리의 데이터셋과 모델은 공개되어 있으며, HCL 기반 AHDM을 위한 고성능, 비용 효율적인 모델을 제공함과 동시에 향후 연구를 위한 효과적인 기준을 제시합니다. Github 저장소: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary