ChiseLLM: Раскрытие потенциала языковых моделей с возможностью логического вывода для гибкой разработки аппаратного обеспечения на Chisel
ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
April 27, 2025
Авторы: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang
cs.AI
Аннотация
Растущий спрос на специализированные архитектуры (Domain-Specific Architecture, DSA) стимулировал развитие гибкой методологии разработки аппаратного обеспечения (Agile Hardware Development Methodology, AHDM). Языки описания аппаратуры (Hardware Construction Language, HCL), такие как Chisel, предлагают функции высокоуровневой абстракции, что делает их идеальными для AHDM на основе HCL. Хотя крупные языковые модели (Large Language Models, LLMs) преуспевают в задачах генерации кода, они всё ещё сталкиваются с трудностями при генерации кода на Chisel, особенно в отношении корректности синтаксиса и вариативности проектирования. Недавние модели рассуждений значительно улучшили возможности генерации кода благодаря методам масштабирования на этапе тестирования. Однако мы обнаружили, что модели рассуждений без адаптации к предметной области не могут принести существенной пользы для задач генерации кода на Chisel. В данной статье представлен ChiseLLM — решение, включающее обработку и преобразование данных, синтез трассировки рассуждений с использованием подсказок и обучение моделей с адаптацией к предметной области. Мы создали высококачественные наборы данных из публичных ресурсов кода на уровне регистровых передач (RTL) и направили модель на использование структурированных шаблонов мышления с помощью методов улучшения подсказок. Эксперименты показали, что наши модели ChiseLLM-7B и ChiseLLM-32B улучшили корректность синтаксиса на 18,85% и 26,32% соответственно по сравнению с базовыми моделями, а также повысили способность к вариативному проектированию на 47,58% в сравнении с базовыми моделями рассуждений. Наши наборы данных и модели доступны публично, предоставляя высокопроизводительные и экономически эффективные решения для AHDM на основе HCL, а также устанавливая эффективный базис для будущих исследований. Репозиторий на GitHub: https://github.com/observerw/ChiseLLM.
English
The growing demand for Domain-Specific Architecture (DSA) has driven the
development of Agile Hardware Development Methodology (AHDM). Hardware
Construction Language (HCL) like Chisel offers high-level abstraction features,
making it an ideal language for HCL-Based AHDM. While Large Language Models
(LLMs) excel in code generation tasks, they still face challenges with Chisel
generation, particularly regarding syntax correctness and design variability.
Recent reasoning models have significantly enhanced code generation
capabilities through test-time scaling techniques. However, we found that
reasoning models without domain adaptation cannot bring substantial benefits to
Chisel code generation tasks. This paper presents ChiseLLM, a solution
comprising data processing and transformation, prompt-guided reasoning trace
synthesis, and domain-adapted model training. We constructed high-quality
datasets from public RTL code resources and guided the model to adopt
structured thinking patterns through prompt enhancement methods. Experiments
demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax
correctness by 18.85% and 26.32% respectively over base models, while
increasing variability design ability by 47.58% compared to baseline reasoning
models. Our datasets and models are publicly available, providing
high-performance, cost-effective models for HCL-Based AHDM, and offering an
effective baseline for future research. Github repository:
https://github.com/observerw/ChiseLLMSummary
AI-Generated Summary