ChatPaper.aiChatPaper

ChiseLLM: Liberando o Poder de LLMs de Raciocínio para o Desenvolvimento Ágil de Hardware com Chisel

ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development

April 27, 2025
Autores: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI

Resumo

A crescente demanda por Arquiteturas Específicas de Domínio (DSA) impulsionou o desenvolvimento da Metodologia Ágil de Desenvolvimento de Hardware (AHDM). Linguagens de Construção de Hardware (HCL), como Chisel, oferecem recursos de abstração de alto nível, tornando-as ideais para AHDM baseada em HCL. Embora os Modelos de Linguagem de Grande Escala (LLMs) se destaquem em tarefas de geração de código, eles ainda enfrentam desafios com a geração de Chisel, especialmente em relação à correção sintática e à variabilidade de design. Modelos de raciocínio recentes melhoraram significativamente as capacidades de geração de código por meio de técnicas de escalonamento em tempo de teste. No entanto, descobrimos que modelos de raciocínio sem adaptação de domínio não trazem benefícios substanciais para tarefas de geração de código em Chisel. Este artigo apresenta o ChiseLLM, uma solução que inclui processamento e transformação de dados, síntese de traços de raciocínio guiados por prompts e treinamento de modelos adaptados ao domínio. Construímos conjuntos de dados de alta qualidade a partir de recursos públicos de código RTL e guiamos o modelo a adotar padrões de pensamento estruturados por meio de métodos de aprimoramento de prompts. Experimentos demonstram que nossos modelos ChiseLLM-7B e ChiseLLM-32B melhoraram a correção sintática em 18,85% e 26,32%, respectivamente, em relação aos modelos base, enquanto aumentaram a capacidade de variabilidade de design em 47,58% em comparação com modelos de raciocínio de linha de base. Nossos conjuntos de dados e modelos estão publicamente disponíveis, fornecendo modelos de alto desempenho e custo-efetivos para AHDM baseada em HCL, além de oferecer uma linha de base eficaz para pesquisas futuras. Repositório Github: https://github.com/observerw/ChiseLLM
English
The growing demand for Domain-Specific Architecture (DSA) has driven the development of Agile Hardware Development Methodology (AHDM). Hardware Construction Language (HCL) like Chisel offers high-level abstraction features, making it an ideal language for HCL-Based AHDM. While Large Language Models (LLMs) excel in code generation tasks, they still face challenges with Chisel generation, particularly regarding syntax correctness and design variability. Recent reasoning models have significantly enhanced code generation capabilities through test-time scaling techniques. However, we found that reasoning models without domain adaptation cannot bring substantial benefits to Chisel code generation tasks. This paper presents ChiseLLM, a solution comprising data processing and transformation, prompt-guided reasoning trace synthesis, and domain-adapted model training. We constructed high-quality datasets from public RTL code resources and guided the model to adopt structured thinking patterns through prompt enhancement methods. Experiments demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax correctness by 18.85% and 26.32% respectively over base models, while increasing variability design ability by 47.58% compared to baseline reasoning models. Our datasets and models are publicly available, providing high-performance, cost-effective models for HCL-Based AHDM, and offering an effective baseline for future research. Github repository: https://github.com/observerw/ChiseLLM
PDF42April 29, 2025