ChatPaper.aiChatPaper

ChiseLLM: Chisel 애자일 하드웨어 개발을 위한 추론 LLM의 힘을 발휘하다

ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development

April 27, 2025
저자: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI

초록

도메인 특화 아키텍처(Domain-Specific Architecture, DSA)에 대한 수요가 증가함에 따라, 애자일 하드웨어 개발 방법론(Agile Hardware Development Methodology, AHDM)의 개발이 촉진되고 있습니다. Chisel과 같은 하드웨어 구성 언어(Hardware Construction Language, HCL)는 높은 수준의 추상화 기능을 제공하여 HCL 기반 AHDM에 이상적인 언어로 자리 잡고 있습니다. 대형 언어 모델(Large Language Models, LLMs)은 코드 생성 작업에서 뛰어난 성능을 보이지만, 특히 구문 정확성과 설계 다양성 측면에서 Chisel 생성에는 여전히 어려움을 겪고 있습니다. 최근의 추론 모델은 테스트 시간 스케일링 기법을 통해 코드 생성 능력을 크게 향상시켰습니다. 그러나 도메인 적응 없이 사용된 추론 모델은 Chisel 코드 생성 작업에 큰 이점을 가져다주지 못한다는 것을 발견했습니다. 본 논문은 데이터 처리 및 변환, 프롬프트 기반 추론 트레이스 합성, 도메인 적응 모델 학습을 포함한 ChiseLLM 솔루션을 제시합니다. 공개된 RTL 코드 리소스로부터 고품질 데이터셋을 구축하고, 프롬프트 강화 방법을 통해 모델이 구조화된 사고 패턴을 채택하도록 유도했습니다. 실험 결과, 우리의 ChiseLLM-7B와 ChiseLLM-32B 모델은 기본 모델 대비 구문 정확성을 각각 18.85%와 26.32% 향상시켰으며, 기준 추론 모델 대비 설계 다양성 능력을 47.58% 증가시켰습니다. 우리의 데이터셋과 모델은 공개되어 있으며, HCL 기반 AHDM을 위한 고성능, 비용 효율적인 모델을 제공함과 동시에 향후 연구를 위한 효과적인 기준을 제시합니다. Github 저장소: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the development of Agile Hardware Development Methodology (AHDM). Hardware Construction Language (HCL) like Chisel offers high-level abstraction features, making it an ideal language for HCL-Based AHDM. While Large Language Models (LLMs) excel in code generation tasks, they still face challenges with Chisel generation, particularly regarding syntax correctness and design variability. Recent reasoning models have significantly enhanced code generation capabilities through test-time scaling techniques. However, we found that reasoning models without domain adaptation cannot bring substantial benefits to Chisel code generation tasks. This paper presents ChiseLLM, a solution comprising data processing and transformation, prompt-guided reasoning trace synthesis, and domain-adapted model training. We constructed high-quality datasets from public RTL code resources and guided the model to adopt structured thinking patterns through prompt enhancement methods. Experiments demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax correctness by 18.85% and 26.32% respectively over base models, while increasing variability design ability by 47.58% compared to baseline reasoning models. Our datasets and models are publicly available, providing high-performance, cost-effective models for HCL-Based AHDM, and offering an effective baseline for future research. Github repository: https://github.com/observerw/ChiseLLM

Summary

AI-Generated Summary

PDF32April 29, 2025