Vers une génération automatisée de noyaux à l'ère des LLM
Towards Automated Kernel Generation in the Era of LLMs
January 22, 2026
papers.authors: Yang Yu, Peiyu Zang, Chi Hsu Tsai, Haiming Wu, Yixin Shen, Jialing Zhang, Haoyu Wang, Zhiyou Xiao, Jingze Shi, Yuyu Luo, Wentao Zhang, Chunlei Men, Guang Liu, Yonghua Lin
cs.AI
papers.abstract
Les performances des systèmes d'IA modernes sont fondamentalement limitées par la qualité de leurs noyaux sous-jacents, qui traduisent la sémantique algorithmique de haut niveau en opérations matérielles de bas niveau. Atteindre des noyaux quasi optimaux nécessite une compréhension experte des architectures matérielles et des modèles de programmation, ce qui fait de l'ingénierie des noyaux un processus critique mais notoirement long et difficile à industrialiser. Les récents progrès des grands modèles de langage (LLM) et des agents basés sur les LLM ont ouvert de nouvelles possibilités pour automatiser la génération et l'optimisation des noyaux. Les LLM sont bien adaptés pour compresser les connaissances expertes sur les noyaux, difficiles à formaliser, tandis que les systèmes agentiques permettent une optimisation scalable en transformant le développement des noyaux en une boucle itérative pilotée par les retours. Des progrès rapides ont été réalisés dans ce domaine. Cependant, le champ de recherche reste fragmenté, manquant d'une perspective systématique pour la génération de noyaux pilotée par les LLM. Cette étude comble cette lacune en fournissant une vue d'ensemble structurée des approches existantes, couvrant les approches basées sur les LLM et les workflows d'optimisation agentique, et en recensant systématiquement les jeux de données et les benchmarks qui sous-tendent l'apprentissage et l'évaluation dans ce domaine. De plus, les principaux défis ouverts et les futures directions de recherche sont esquissés, visant à établir une référence complète pour la prochaine génération d'optimisation automatique des noyaux. Pour suivre l'évolution de ce domaine, nous maintenons un dépôt GitHub open source à l'adresse https://github.com/flagos-ai/awesome-LLM-driven-kernel-generation.
English
The performance of modern AI systems is fundamentally constrained by the quality of their underlying kernels, which translate high-level algorithmic semantics into low-level hardware operations. Achieving near-optimal kernels requires expert-level understanding of hardware architectures and programming models, making kernel engineering a critical but notoriously time-consuming and non-scalable process. Recent advances in large language models (LLMs) and LLM-based agents have opened new possibilities for automating kernel generation and optimization. LLMs are well-suited to compress expert-level kernel knowledge that is difficult to formalize, while agentic systems further enable scalable optimization by casting kernel development as an iterative, feedback-driven loop. Rapid progress has been made in this area. However, the field remains fragmented, lacking a systematic perspective for LLM-driven kernel generation. This survey addresses this gap by providing a structured overview of existing approaches, spanning LLM-based approaches and agentic optimization workflows, and systematically compiling the datasets and benchmarks that underpin learning and evaluation in this domain. Moreover, key open challenges and future research directions are further outlined, aiming to establish a comprehensive reference for the next generation of automated kernel optimization. To keep track of this field, we maintain an open-source GitHub repository at https://github.com/flagos-ai/awesome-LLM-driven-kernel-generation.