ChatPaper.aiChatPaper

ChipNeMo: Modelli Linguistici di Grandi Dimensioni Adattati al Dominio per la Progettazione di Chip

ChipNeMo: Domain-Adapted LLMs for Chip Design

October 31, 2023
Autori: Mingjie Liu, Teo Ene, Robert Kirby, Chris Cheng, Nathaniel Pinckney, Rongjian Liang, Jonah Alben, Himyanshu Anand, Sanmitra Banerjee, Ismet Bayraktaroglu, Bonita Bhaskaran, Bryan Catanzaro, Arjun Chaudhuri, Sharon Clay, Bill Dally, Laura Dang, Parikshit Deshpande, Siddhanth Dhodhi, Sameer Halepete, Eric Hill, Jiashang Hu, Sumit Jain, Brucek Khailany, Kishor Kunal, Xiaowei Li, Hao Liu, Stuart Oberman, Sujeet Omar, Sreedhar Pratty, Ambar Sarkar, Zhengjiang Shao, Hanfei Sun, Pratik P Suthar, Varun Tej, Kaizhe Xu, Haoxing Ren
cs.AI

Abstract

ChipNeMo si propone di esplorare le applicazioni dei grandi modelli linguistici (LLM) per la progettazione industriale di chip. Invece di utilizzare direttamente LLM commerciali o open-source già disponibili, adottiamo le seguenti tecniche di adattamento al dominio: tokenizer personalizzati, pre-addestramento continuo adattato al dominio, fine-tuning supervisionato (SFT) con istruzioni specifiche del dominio e modelli di recupero adattati al dominio. Valutiamo questi metodi su tre applicazioni selezionate di LLM per la progettazione di chip: un chatbot assistente per l'ingegneria, la generazione di script EDA e la sintesi e analisi dei bug. I nostri risultati dimostrano che queste tecniche di adattamento al dominio consentono miglioramenti significativi delle prestazioni degli LLM rispetto ai modelli di base generici nelle tre applicazioni valutate, permettendo una riduzione delle dimensioni del modello fino a 5 volte con prestazioni simili o migliori su una gamma di attività di progettazione. Le nostre scoperte indicano inoltre che c'è ancora margine di miglioramento tra i risultati attuali e gli esiti ideali. Crediamo che ulteriori indagini sugli approcci LLM adattati al dominio contribuiranno a colmare questo divario in futuro.
English
ChipNeMo aims to explore the applications of large language models (LLMs) for industrial chip design. Instead of directly deploying off-the-shelf commercial or open-source LLMs, we instead adopt the following domain adaptation techniques: custom tokenizers, domain-adaptive continued pretraining, supervised fine-tuning (SFT) with domain-specific instructions, and domain-adapted retrieval models. We evaluate these methods on three selected LLM applications for chip design: an engineering assistant chatbot, EDA script generation, and bug summarization and analysis. Our results show that these domain adaptation techniques enable significant LLM performance improvements over general-purpose base models across the three evaluated applications, enabling up to 5x model size reduction with similar or better performance on a range of design tasks. Our findings also indicate that there's still room for improvement between our current results and ideal outcomes. We believe that further investigation of domain-adapted LLM approaches will help close this gap in the future.
PDF93December 15, 2024