ChatPaper.aiChatPaper

Allocation de Charge de Travail en Grappes : Affinité Sémantique Douce par Traitement du Langage Naturel

Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing

January 14, 2026
papers.authors: Leszek Sliwko, Jolanta Mizeria-Pietraszko
cs.AI

papers.abstract

L'allocation de charge de travail en cluster nécessite souvent des configurations complexes, créant un déficit d'utilisabilité. Cet article présente un paradigme de planification sémantique et piloté par l'intention pour les systèmes en cluster utilisant le Traitement du Langage Naturel (TLN). Le système emploie un Grand Modèle de Langage (LLM) intégré via un module d'extension de planificateur Kubernetes pour interpréter des annotations d'indices d'allocation en langage naturel exprimant des préférences de soft affinity. Un prototype doté d'un cache d'état du cluster et d'un analyseur d'intention (utilisant AWS Bedrock) a été développé. L'évaluation empirique a démontré une grande précision d'analyse par le LLM (>95% de Subset Accuracy sur un jeu de données de référence) pour les modèles de premier plan comme Amazon Nova Pro/Premier et Mistral Pixtral Large, surpassant significativement un moteur de référence. Des tests de qualité de planification sur six scénarios ont montré que le prototype obtenait un placement supérieur ou équivalent par rapport aux configurations Kubernetes standard, excellant particulièrement dans les scénarios complexes et quantitatifs et dans la gestion de préférences souples conflictuelles. Les résultats valident l'utilisation des LLM pour une planification accessible mais soulignent des limitations comme la latence synchrone des LLM, suggérant un traitement asynchrone pour une mise en production. Ce travail confirme la viabilité de la soft affinity sémantique pour simplifier l'orchestration de la charge de travail.
English
Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.
PDF01January 16, 2026