ChatPaper.aiChatPaper

CASS: Transpilação de Nvidia para AMD com Dados, Modelos e Benchmark

CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

May 22, 2025
Autores: Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud
cs.AI

Resumo

Apresentamos o CASS, o primeiro conjunto de dados em larga escala e suíte de modelos para transpilação de código GPU entre arquiteturas, visando tanto a tradução em nível de código-fonte (CUDA ↔ HIP) quanto em nível de assembly (Nvidia SASS ↔ AMD RDNA3). O conjunto de dados compreende 70 mil pares de código verificados, abrangendo host e dispositivo, abordando uma lacuna crítica na portabilidade de código GPU de baixo nível. Aproveitando esse recurso, treinamos a família CASS de modelos de linguagem específicos para o domínio, alcançando 95% de precisão na tradução de código-fonte e 37,5% na tradução de assembly, superando substancialmente baselines comerciais como GPT-4o, Claude e Hipify. Nosso código gerado corresponde ao desempenho nativo em mais de 85% dos casos de teste, preservando o comportamento de tempo de execução e memória. Para apoiar uma avaliação rigorosa, introduzimos o CASS-Bench, um benchmark curado que abrange 16 domínios de GPU com execução de referência. Todos os dados, modelos e ferramentas de avaliação são liberados como código aberto para promover avanços em ferramentas de compilação GPU, compatibilidade binária e tradução de hardware guiada por LLM. O conjunto de dados e o benchmark estão disponíveis em https://huggingface.co/datasets/MBZUAI/cass{blue{HuggingFace}}, com o código em https://github.com/GustavoStahl/CASS{blue{GitHub}}.
English
We introduce CASS, the first large-scale dataset and model suite for cross-architecture GPU code transpilation, targeting both source-level (CUDA leftrightarrow HIP) and assembly-level (Nvidia SASS leftrightarrow AMD RDNA3) translation. The dataset comprises 70k verified code pairs across host and device, addressing a critical gap in low-level GPU code portability. Leveraging this resource, we train the CASS family of domain-specific language models, achieving 95% source translation accuracy and 37.5% assembly translation accuracy, substantially outperforming commercial baselines such as GPT-4o, Claude, and Hipify. Our generated code matches native performance in over 85% of test cases, preserving runtime and memory behavior. To support rigorous evaluation, we introduce CASS-Bench, a curated benchmark spanning 16 GPU domains with ground-truth execution. All data, models, and evaluation tools are released as open source to foster progress in GPU compiler tooling, binary compatibility, and LLM-guided hardware translation. Dataset and benchmark are on https://huggingface.co/datasets/MBZUAI/cass{blue{HuggingFace}}, with code at https://github.com/GustavoStahl/CASS{blue{GitHub}}.
PDF12May 28, 2025