Hoe LLM's Multi-Scenario CUDA-kernels als Experts Optimaliseren
Making LLMs Optimize Multi-Scenario CUDA Kernels Like Experts
March 7, 2026
Auteurs: Yuxuan Han, Meng-Hao Guo, Zhengning Liu, Wenguang Chen, Shi-Min Hu
cs.AI
Samenvatting
Het handmatig optimaliseren van GPU-kernels is een uitdagende en tijdrovende taak. Met de snelle ontwikkeling van LLM's wordt geautomatiseerde GPU-kerneloptimalisatie geleidelijk aan een tastbare realiteit. Huidige, door LLM's aangedreven optimalisatiemethoden richten zich echter nauw op machine learning-toepassingen, zoals de optimalisatie van PyTorch-operatoren, en negeren bredere domeinen zoals sparse matrixoperaties in wetenschappelijk rekenen. Uitbreiding naar deze bredere toepassingen brengt nieuwe uitdagingen met zich mee voor de benchmark en het algoritme. Daarom is de ontwikkeling van een algemene, geautomatiseerde kerneloptimalisatiemethode onze primaire focus. In dit artikel pakken we het ontbreken van een systematische evaluatie voor multi-scenario-instellingen aan door MSKernelBench te introduceren, dat meerdere scenario's omspant, waaronder fundamentele algebraïsche bewerkingen, veelvoorkomende LLM-kernels, sparse matrixoperatoren en wetenschappelijke rekenroutines, die elk zowel FP32- als BF16-precisie ondersteunen. Op basis van deze benchmark introduceren we CUDAMaster, een multi-agent, hardwarebewust systeem voor kerneloptimalisatie dat profilinformatie benut en automatisch de volledige toolchain voor compilatie en uitvoering opzet. Experimentele resultaten tonen aan dat CUDAMaster aanzienlijke snelheidswinst boekt bij de meeste operatoren en Astra met ongeveer 35% verslaat. In verschillende gevallen evenaart of overtreft de prestaties die van sterk geoptimaliseerde, closed-source bibliotheken zoals cuBLAS. Een demo met de originele en geoptimaliseerde code voor elke operator is beschikbaar op https://hanyx2021.github.io/MSKernelBenchDemo/.
English
Optimizing GPU kernels manually is a challenging and time-consuming task. With the rapid development of LLMs, automated GPU kernel optimization is gradually becoming a tangible reality. However, current LLM-driven automated optimization methods narrowly focus on machine learning applications, such as PyTorch operator optimization, while overlooking broader domains like sparse matrix operations in scientific computing. Extending to these broader applications brings new challenges for the benchmark and algorithm. Therefore, developing a general-purpose automated kernel optimization method becomes our primary focus. In this paper, we address the absence of systematic evaluation for multi-scenario settings by introducing MSKernelBench, which spans multiple scenarios, including fundamental algebraic operations, common LLM kernels, sparse matrix operators, and scientific computing routines, each supporting both FP32 and BF16 precision. Building on this benchmark, we introduce CUDAMaster, a multi-agent, hardware-aware system for kernel optimization that leverages profiling information and automatically constructs the full compilation and execution toolchain. Experimental results demonstrate that CUDAMaster achieves significant speedups across most operators, outperforming Astra by about 35%. In several cases, its performance matches or surpasses that of highly optimized, closed-source libraries such as cuBLAS. A demo showcasing the original and optimized code for each operator is available at https://hanyx2021.github.io/MSKernelBenchDemo/.