ChatPaper.aiChatPaper

CASS: Traspilazione da Nvidia a AMD con Dati, Modelli e Benchmark

CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

May 22, 2025
Autori: Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud
cs.AI

Abstract

Presentiamo CASS, il primo dataset su larga scala e suite di modelli per la transpilazione di codice GPU cross-architettura, mirando sia alla traduzione a livello di sorgente (CUDA ↔ HIP) che a livello di assembly (Nvidia SASS ↔ AMD RDNA3). Il dataset comprende 70k coppie di codice verificate tra host e dispositivo, colmando una lacuna critica nella portabilità del codice GPU a basso livello. Sfruttando questa risorsa, addestriamo la famiglia di modelli linguistici specifici per il dominio CASS, raggiungendo una precisione del 95% nella traduzione del sorgente e del 37,5% nella traduzione dell'assembly, superando significativamente i benchmark commerciali come GPT-4o, Claude e Hipify. Il codice generato corrisponde alle prestazioni native in oltre l'85% dei casi di test, preservando il comportamento di runtime e memoria. Per supportare una valutazione rigorosa, introduciamo CASS-Bench, un benchmark curato che copre 16 domini GPU con esecuzione ground-truth. Tutti i dati, i modelli e gli strumenti di valutazione sono rilasciati come open source per favorire il progresso negli strumenti di compilazione GPU, nella compatibilità binaria e nella traduzione hardware guidata da LLM. Il dataset e il benchmark sono disponibili su https://huggingface.co/datasets/MBZUAI/cass{blue{HuggingFace}}, con il codice su https://github.com/GustavoStahl/CASS{blue{GitHub}}.
English
We introduce CASS, the first large-scale dataset and model suite for cross-architecture GPU code transpilation, targeting both source-level (CUDA leftrightarrow HIP) and assembly-level (Nvidia SASS leftrightarrow AMD RDNA3) translation. The dataset comprises 70k verified code pairs across host and device, addressing a critical gap in low-level GPU code portability. Leveraging this resource, we train the CASS family of domain-specific language models, achieving 95% source translation accuracy and 37.5% assembly translation accuracy, substantially outperforming commercial baselines such as GPT-4o, Claude, and Hipify. Our generated code matches native performance in over 85% of test cases, preserving runtime and memory behavior. To support rigorous evaluation, we introduce CASS-Bench, a curated benchmark spanning 16 GPU domains with ground-truth execution. All data, models, and evaluation tools are released as open source to foster progress in GPU compiler tooling, binary compatibility, and LLM-guided hardware translation. Dataset and benchmark are on https://huggingface.co/datasets/MBZUAI/cass{blue{HuggingFace}}, with code at https://github.com/GustavoStahl/CASS{blue{GitHub}}.
PDF12May 28, 2025