Rumo à Geração Automatizada de Kernels na Era dos LLMs
Towards Automated Kernel Generation in the Era of LLMs
January 22, 2026
Autores: Yang Yu, Peiyu Zang, Chi Hsu Tsai, Haiming Wu, Yixin Shen, Jialing Zhang, Haoyu Wang, Zhiyou Xiao, Jingze Shi, Yuyu Luo, Wentao Zhang, Chunlei Men, Guang Liu, Yonghua Lin
cs.AI
Resumo
O desempenho dos sistemas modernos de IA é fundamentalmente limitado pela qualidade dos seus núcleos (kernels) subjacentes, que traduzem a semântica algorítmica de alto nível em operações de hardware de baixo nível. A obtenção de núcleos quase ótimos exige um entendimento de nível especialista das arquiteturas de hardware e dos modelos de programação, tornando a engenharia de kernels um processo crítico, mas notoriamente demorado e não escalável. Os avanços recentes em modelos de linguagem grande (LLMs) e agentes baseados em LLMs abriram novas possibilidades para automatizar a geração e otimização de kernels. Os LLMs são adequados para comprimir o conhecimento especializado sobre kernels que é difícil de formalizar, enquanto os sistemas agentes permitem ainda uma otimização escalável ao transformar o desenvolvimento de kernels num ciclo iterativo orientado por feedback. Tem havido progressos rápidos nesta área. No entanto, o campo permanece fragmentado, carecendo de uma perspetiva sistemática para a geração de kernels orientada por LLMs. Este estudo aborda esta lacuna ao fornecer uma visão geral estruturada das abordagens existentes, abrangendo métodos baseados em LLMs e fluxos de trabalho de otimização agentes, e compilando sistematicamente os conjuntos de dados e benchmarks que suportam a aprendizagem e avaliação neste domínio. Além disso, são delineados os principais desafios em aberto e futuras direções de investigação, visando estabelecer uma referência abrangente para a próxima geração de otimização automatizada de kernels. Para acompanhar este campo, mantemos um repositório GitHub de código aberto em https://github.com/flagos-ai/awesome-LLM-driven-kernel-generation.
English
The performance of modern AI systems is fundamentally constrained by the quality of their underlying kernels, which translate high-level algorithmic semantics into low-level hardware operations. Achieving near-optimal kernels requires expert-level understanding of hardware architectures and programming models, making kernel engineering a critical but notoriously time-consuming and non-scalable process. Recent advances in large language models (LLMs) and LLM-based agents have opened new possibilities for automating kernel generation and optimization. LLMs are well-suited to compress expert-level kernel knowledge that is difficult to formalize, while agentic systems further enable scalable optimization by casting kernel development as an iterative, feedback-driven loop. Rapid progress has been made in this area. However, the field remains fragmented, lacking a systematic perspective for LLM-driven kernel generation. This survey addresses this gap by providing a structured overview of existing approaches, spanning LLM-based approaches and agentic optimization workflows, and systematically compiling the datasets and benchmarks that underpin learning and evaluation in this domain. Moreover, key open challenges and future research directions are further outlined, aiming to establish a comprehensive reference for the next generation of automated kernel optimization. To keep track of this field, we maintain an open-source GitHub repository at https://github.com/flagos-ai/awesome-LLM-driven-kernel-generation.