Hacia la Generación Automatizada de Kernels en la Era de los LLM
Towards Automated Kernel Generation in the Era of LLMs
January 22, 2026
Autores: Yang Yu, Peiyu Zang, Chi Hsu Tsai, Haiming Wu, Yixin Shen, Jialing Zhang, Haoyu Wang, Zhiyou Xiao, Jingze Shi, Yuyu Luo, Wentao Zhang, Chunlei Men, Guang Liu, Yonghua Lin
cs.AI
Resumen
El rendimiento de los sistemas de IA modernos está fundamentalmente limitado por la calidad de sus kernels subyacentes, los cuales traducen la semántica algorítmica de alto nivel en operaciones de hardware de bajo nivel. Lograr kernels casi óptimos requiere una comprensión a nivel experto de las arquitecturas de hardware y los modelos de programación, lo que convierte a la ingeniería de kernels en un proceso crítico pero notoriamente lento y difícil de escalar. Los recientes avances en los modelos de lenguaje grandes (LLMs) y en los agentes basados en LLMs han abierto nuevas posibilidades para automatizar la generación y optimización de kernels. Los LLMs son idóneos para comprimir el conocimiento experto sobre kernels que es difícil de formalizar, mientras que los sistemas agentes permiten además una optimización escalable al plantear el desarrollo de kernels como un ciclo iterativo impulsado por la retroalimentación. Se han logrado rápidos progresos en esta área. Sin embargo, el campo sigue estando fragmentado, careciendo de una perspectiva sistemática para la generación de kernels impulsada por LLMs. Esta revisión aborda esta brecha proporcionando una visión estructurada de los enfoques existentes, abarcando tanto los métodos basados en LLMs como los flujos de trabajo de optimización agentes, y compilando sistemáticamente los conjuntos de datos y benchmarks que sustentan el aprendizaje y la evaluación en este dominio. Además, se esbozan los principales desafíos abiertos y futuras direcciones de investigación, con el objetivo de establecer una referencia integral para la próxima generación de optimización automática de kernels. Para realizar un seguimiento de este campo, mantenemos un repositorio GitHub de código abierto en https://github.com/flagos-ai/awesome-LLM-driven-kernel-generation.
English
The performance of modern AI systems is fundamentally constrained by the quality of their underlying kernels, which translate high-level algorithmic semantics into low-level hardware operations. Achieving near-optimal kernels requires expert-level understanding of hardware architectures and programming models, making kernel engineering a critical but notoriously time-consuming and non-scalable process. Recent advances in large language models (LLMs) and LLM-based agents have opened new possibilities for automating kernel generation and optimization. LLMs are well-suited to compress expert-level kernel knowledge that is difficult to formalize, while agentic systems further enable scalable optimization by casting kernel development as an iterative, feedback-driven loop. Rapid progress has been made in this area. However, the field remains fragmented, lacking a systematic perspective for LLM-driven kernel generation. This survey addresses this gap by providing a structured overview of existing approaches, spanning LLM-based approaches and agentic optimization workflows, and systematically compiling the datasets and benchmarks that underpin learning and evaluation in this domain. Moreover, key open challenges and future research directions are further outlined, aiming to establish a comprehensive reference for the next generation of automated kernel optimization. To keep track of this field, we maintain an open-source GitHub repository at https://github.com/flagos-ai/awesome-LLM-driven-kernel-generation.