ChatPaper.aiChatPaper

Создание LLM, способных оптимизировать CUDA-ядро для многопользовательских сценариев на уровне экспертов

Making LLMs Optimize Multi-Scenario CUDA Kernels Like Experts

March 7, 2026
Авторы: Yuxuan Han, Meng-Hao Guo, Zhengning Liu, Wenguang Chen, Shi-Min Hu
cs.AI

Аннотация

Ручная оптимизация GPU-ядр является сложной и трудоемкой задачей. С быстрым развитием больших языковых моделей (LLM) автоматизированная оптимизация GPU-ядр постепенно становится достижимой реальностью. Однако современные методы автоматической оптимизации на основе LLM узко сосредоточены на задачах машинного обучения, таких как оптимизация операторов PyTorch, игнорируя более широкие области, например, операции с разреженными матрицами в научных вычислениях. Расширение на эти приложения порождает новые вызовы для бенчмарков и алгоритмов. Следовательно, разработка универсального метода автоматической оптимизации ядер становится нашей основной целью. В данной статье мы решаем проблему отсутствия систематической оценки для многопользовательских сценариев, представляя MSKernelBench — бенчмарк, охватывающий различные сценарии, включая базовые алгебраические операции, распространенные ядра LLM, операторы для разреженных матриц и процедуры научных вычислений, каждый из которых поддерживает точности FP32 и BF16. На основе этого бенчмарка мы представляем CUDAMaster — многокомпонентную, аппаратно-ориентированную систему для оптимизации ядер, которая использует данные профилирования и автоматически строит полный инструментарий компиляции и выполнения. Результаты экспериментов показывают, что CUDAMaster обеспечивает значительное ускорение для большинства операторов, превосходя Astra примерно на 35%. В ряде случаев его производительность соответствует или превосходит высокооптимизированные проприетарные библиотеки, такие как cuBLAS. Демонстрация исходного и оптимизированного кода для каждого оператора доступна по адресу https://hanyx2021.github.io/MSKernelBenchDemo/.
English
Optimizing GPU kernels manually is a challenging and time-consuming task. With the rapid development of LLMs, automated GPU kernel optimization is gradually becoming a tangible reality. However, current LLM-driven automated optimization methods narrowly focus on machine learning applications, such as PyTorch operator optimization, while overlooking broader domains like sparse matrix operations in scientific computing. Extending to these broader applications brings new challenges for the benchmark and algorithm. Therefore, developing a general-purpose automated kernel optimization method becomes our primary focus. In this paper, we address the absence of systematic evaluation for multi-scenario settings by introducing MSKernelBench, which spans multiple scenarios, including fundamental algebraic operations, common LLM kernels, sparse matrix operators, and scientific computing routines, each supporting both FP32 and BF16 precision. Building on this benchmark, we introduce CUDAMaster, a multi-agent, hardware-aware system for kernel optimization that leverages profiling information and automatically constructs the full compilation and execution toolchain. Experimental results demonstrate that CUDAMaster achieves significant speedups across most operators, outperforming Astra by about 35%. In several cases, its performance matches or surpasses that of highly optimized, closed-source libraries such as cuBLAS. A demo showcasing the original and optimized code for each operator is available at https://hanyx2021.github.io/MSKernelBenchDemo/.
PDF22March 16, 2026