Fazendo os LLMs Otimizarem Kernels CUDA Multi-Cenário Como Especialistas
Making LLMs Optimize Multi-Scenario CUDA Kernels Like Experts
March 7, 2026
Autores: Yuxuan Han, Meng-Hao Guo, Zhengning Liu, Wenguang Chen, Shi-Min Hu
cs.AI
Resumo
A otimização manual de kernels de GPU é uma tarefa desafiadora e demorada. Com o rápido desenvolvimento dos LLMs, a otimização automatizada de kernels de GPU está gradualmente se tornando uma realidade tangível. No entanto, os métodos atuais de otimização automatizada baseados em LLMs concentram-se de forma restrita em aplicações de aprendizado de máquina, como a otimização de operadores do PyTorch, enquanto negligenciam domínios mais amplos, como as operações com matrizes esparsas na computação científica. A extensão para essas aplicações mais abrangentes traz novos desafios para o benchmark e para o algoritmo. Portanto, o desenvolvimento de um método de otimização automatizada de kernels de propósito geral torna-se o nosso foco principal. Neste artigo, abordamos a ausência de avaliação sistemática para configurações multicontexto através da introdução do MSKernelBench, que abrange múltiplos cenários, incluindo operações algébricas fundamentais, kernels comuns de LLM, operadores de matrizes esparsas e rotinas de computação científica, cada um suportando precisões FP32 e BF16. Com base neste benchmark, introduzimos o CUDAMaster, um sistema multiagente e consciente do hardware para otimização de kernels que aproveita informações de profiling e constrói automaticamente a cadeia completa de ferramentas de compilação e execução. Os resultados experimentais demonstram que o CUDAMaster alcança acelerações significativas na maioria dos operadores, superando o Astra em cerca de 35%. Em vários casos, o seu desempenho iguala ou supera o de bibliotecas altamente otimizadas e de código fechado, como a cuBLAS. Uma demonstração que exibe o código original e otimizado para cada operador está disponível em https://hanyx2021.github.io/MSKernelBenchDemo/.
English
Optimizing GPU kernels manually is a challenging and time-consuming task. With the rapid development of LLMs, automated GPU kernel optimization is gradually becoming a tangible reality. However, current LLM-driven automated optimization methods narrowly focus on machine learning applications, such as PyTorch operator optimization, while overlooking broader domains like sparse matrix operations in scientific computing. Extending to these broader applications brings new challenges for the benchmark and algorithm. Therefore, developing a general-purpose automated kernel optimization method becomes our primary focus. In this paper, we address the absence of systematic evaluation for multi-scenario settings by introducing MSKernelBench, which spans multiple scenarios, including fundamental algebraic operations, common LLM kernels, sparse matrix operators, and scientific computing routines, each supporting both FP32 and BF16 precision. Building on this benchmark, we introduce CUDAMaster, a multi-agent, hardware-aware system for kernel optimization that leverages profiling information and automatically constructs the full compilation and execution toolchain. Experimental results demonstrate that CUDAMaster achieves significant speedups across most operators, outperforming Astra by about 35%. In several cases, its performance matches or surpasses that of highly optimized, closed-source libraries such as cuBLAS. A demo showcasing the original and optimized code for each operator is available at https://hanyx2021.github.io/MSKernelBenchDemo/.