Cluster-Arbeitslastzuweisung: Semantische Soft Affinity unter Verwendung von Natural Language Processing
Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing
January 14, 2026
papers.authors: Leszek Sliwko, Jolanta Mizeria-Pietraszko
cs.AI
papers.abstract
Die Zuweisung von Cluster-Workloads erfordert oft komplexe Konfigurationen, was eine Usability-Lücke schafft. Dieses Papier stellt ein semantisches, absichtsgesteuertes Scheduling-Paradigma für Clustersysteme unter Verwendung von Natural Language Processing vor. Das System setzt ein Large Language Model (LLM) ein, das über einen Kubernetes-Scheduler-Extender integriert ist, um natürlichsprachliche Allokationshinweis-Annotationen für Soft-Affinity-Präferenzen zu interpretieren. Ein Prototyp mit einem Cluster-Zustands-Cache und einem Intent-Analyzer (unter Verwendung von AWS Bedrock) wurde entwickelt. Die empirische Auswertung zeigte eine hohe LLM-Parsing-Genauigkeit (>95% Subset Accuracy auf einem Evaluierungs-Ground-Truth-Datensatz) für Top-Modelle wie Amazon Nova Pro/Premier und Mistral Pixtral Large, die eine Baseline-Engine deutlich übertraf. Tests der Scheduling-Qualität in sechs Szenarien zeigten, dass der Prototyp eine überlegene oder gleichwertige Platzierung im Vergleich zu standardmäßigen Kubernetes-Konfigurationen erreichte, wobei er sich besonders in komplexen und quantitativen Szenarien sowie bei der Handhabung konfligierender Soft-Präferenzen auszeichnete. Die Ergebnisse validieren den Einsatz von LLMs für zugängliches Scheduling, zeigen aber auch Grenzen wie synchrone LLM-Latenz auf und legen asynchrone Verarbeitung für Produktionsreife nahe. Diese Arbeit bestätigt die Machbarkeit von semantischer Soft Affinity zur Vereinfachung der Workload-Orchestrierung.
English
Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.