Clusterwerkbelastingtoewijzing: Semantische Soft Affiniteit met Natuurlijke Taalverwerking
Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing
January 14, 2026
Auteurs: Leszek Sliwko, Jolanta Mizeria-Pietraszko
cs.AI
Samenvatting
Clusterwerkbelastingtoewijzing vereist vaak complexe configuraties, wat een bruikbaarheidskloof creëert. Dit artikel introduceert een semantisch, op intentie gebaseerd planningsparadigma voor clustersystemen met behulp van Natural Language Processing. Het systeem gebruikt een Large Language Model (LLM), geïntegreerd via een Kubernetes scheduler-extender, om natuurlijke-taalaantekeningen voor allocatiehints te interpreteren voor zachte affiniteitsvoorkeuren. Er werd een prototype ontwikkeld met een clusterstatuscache en een intentie-analyzer (gebruikmakend van AWS Bedrock). Empirische evaluatie toonde een hoge LLM-parseernauwkeurigheid aan (>95% Subset Accuracy op een evaluatiedataset met grondwaarheid) voor topmodellen zoals Amazon Nova Pro/Premier en Mistral Pixtral Large, wat aanzienlijk beter presteerde dan een baseline-engine. Tests van de planningskwaliteit in zes scenario's toonden aan dat het prototype superieure of gelijkwaardige plaatsing bereikte in vergelijking met standaard Kubernetes-configuraties, met name uitblinkend in complexe en kwantitatieve scenario's en bij het afhandelen van conflicterende zachte voorkeuren. De resultaten valideren het gebruik van LLM's voor toegankelijke planning, maar benadrukken beperkingen zoals synchrone LLM-latentie, wat asynchrone verwerking suggereert voor productiegereedheid. Dit werk bevestigt de levensvatbaarheid van semantische zachte affiniteit voor het vereenvoudigen van workload-orchestratie.
English
Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.