ChatPaper.aiChatPaper

Große Sprachmodelle optimieren Multi-Szenario-CUDA-Kernel wie Experten

Making LLMs Optimize Multi-Scenario CUDA Kernels Like Experts

March 7, 2026
Autoren: Yuxuan Han, Meng-Hao Guo, Zhengning Liu, Wenguang Chen, Shi-Min Hu
cs.AI

Zusammenfassung

Die manuelle Optimierung von GPU-Kerneln ist eine anspruchsvolle und zeitaufwändige Aufgabe. Mit der rasanten Entwicklung von LLMs wird die automatisierte GPU-Kernel-Optimierung allmählich zur greifbaren Realität. Allerdings konzentrieren sich aktuelle LLM-gestützte Automatisierungsansätze eng auf Machine-Learning-Anwendungen, wie die Optimierung von PyTorch-Operatoren, und vernachlässigen dabei breitere Domänen wie Sparse-Matrix-Operationen im wissenschaftlichen Rechnen. Die Ausweitung auf diese breiteren Anwendungsbereiche stellt neue Herausforderungen an Benchmarks und Algorithmen. Daher ist die Entwicklung einer allgemeinen Methode zur automatisierten Kernel-Optimierung unser Hauptaugenmerk. In diesem Beitrag begegnen wir dem Fehlen systematischer Auswertungen für Multiszenario-Umgebungen durch die Einführung von MSKernelBench, das mehrere Szenarien abdeckt, darunter grundlegende algebraische Operationen, gängige LLM-Kernel, Sparse-Matrix-Operatoren und Routinen des wissenschaftlichen Rechnens, wobei jeder Bereich sowohl FP32- als auch BF16-Genauigkeit unterstützt. Aufbauend auf diesem Benchmark präsentieren wir CUDAMaster, ein multiagentenbasiertes, hardwarebewusstes System zur Kernel-Optimierung, das Profiling-Informationen nutzt und automatisch die vollständige Toolchain für Kompilierung und Ausführung aufbaut. Experimentelle Ergebnisse zeigen, dass CUDAMaster bei den meisten Operatoren signifikante Beschleunigungen erzielt und Astra um etwa 35% übertrifft. In mehreren Fällen erreicht oder übertrifft seine Leistung die hochoptimierter, proprietärer Bibliotheken wie cuBLAS. Eine Demo, die den ursprünglichen und optimierten Code für jeden Operator zeigt, ist unter https://hanyx2021.github.io/MSKernelBenchDemo/ verfügbar.
English
Optimizing GPU kernels manually is a challenging and time-consuming task. With the rapid development of LLMs, automated GPU kernel optimization is gradually becoming a tangible reality. However, current LLM-driven automated optimization methods narrowly focus on machine learning applications, such as PyTorch operator optimization, while overlooking broader domains like sparse matrix operations in scientific computing. Extending to these broader applications brings new challenges for the benchmark and algorithm. Therefore, developing a general-purpose automated kernel optimization method becomes our primary focus. In this paper, we address the absence of systematic evaluation for multi-scenario settings by introducing MSKernelBench, which spans multiple scenarios, including fundamental algebraic operations, common LLM kernels, sparse matrix operators, and scientific computing routines, each supporting both FP32 and BF16 precision. Building on this benchmark, we introduce CUDAMaster, a multi-agent, hardware-aware system for kernel optimization that leverages profiling information and automatically constructs the full compilation and execution toolchain. Experimental results demonstrate that CUDAMaster achieves significant speedups across most operators, outperforming Astra by about 35%. In several cases, its performance matches or surpasses that of highly optimized, closed-source libraries such as cuBLAS. A demo showcasing the original and optimized code for each operator is available at https://hanyx2021.github.io/MSKernelBenchDemo/.
PDF22March 16, 2026