ChatPaper.aiChatPaper

Assegnazione del Carico di Lavoro nei Cluster: Affinità Semantica Soft Utilizzando l'Elaborazione del Linguaggio Naturale

Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing

January 14, 2026
Autori: Leszek Sliwko, Jolanta Mizeria-Pietraszko
cs.AI

Abstract

L'allocazione del carico di lavoro nei cluster richiede spesso configurazioni complesse, creando un divario di usabilità. Questo articolo introduce un paradigma di scheduling semantico e guidato dall'intento per i sistemi di cluster utilizzando l'Elaborazione del Linguaggio Naturale. Il sistema impiega un Large Language Model (LLM) integrato tramite un'estensione dello scheduler di Kubernetes per interpretare le annotazioni di suggerimento di allocazione in linguaggio naturale per preferenze di affinità soft. È stato sviluppato un prototipo dotato di una cache dello stato del cluster e di un analizzatore di intenti (utilizzando AWS Bedrock). La valutazione empirica ha dimostrato un'elevata accuratezza di analisi del LLM (>95% di Accuratezza del Sottoinsieme su un dataset di verità fondamentale di valutazione) per modelli di primo livello come Amazon Nova Pro/Premier e Mistral Pixtral Large, superando significativamente un motore di base. Test sulla qualità dello scheduling in sei scenari hanno mostrato che il prototipo ha ottenuto un posizionamento superiore o equivalente rispetto alle configurazioni standard di Kubernetes, eccellendo in particolare in scenari complessi e quantitativi e nella gestione di preferenze soft conflittuali. I risultati convalidano l'uso dei LLM per uno scheduling accessibile ma evidenziano limitazioni come la latenza sincrona del LLM, suggerendo l'elaborazione asincrona per la preparazione alla produzione. Questo lavoro conferma la fattibilità dell'affinità soft semantica per semplificare l'orchestrazione del carico di lavoro.
English
Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.
PDF12February 27, 2026