ChatPaper.aiChatPaper

Asignación de Carga de Trabajo en Clústeres: Afinidad Semántica Flexible Mediante Procesamiento de Lenguaje Natural

Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing

January 14, 2026
Autores: Leszek Sliwko, Jolanta Mizeria-Pietraszko
cs.AI

Resumen

La asignación de cargas de trabajo en clústeres a menudo requiere configuraciones complejas, lo que genera una brecha de usabilidad. Este artículo presenta un paradigma de planificación semántica y basada en intenciones para sistemas de clústeres utilizando Procesamiento de Lenguaje Natural. El sistema emplea un Modelo de Lenguaje Grande (LLM) integrado mediante un extensor del planificador de Kubernetes para interpretar anotaciones de sugerencias de asignación en lenguaje natural que expresan preferencias de afinidad flexible. Se desarrolló un prototipo que incluye una caché del estado del clúster y un analizador de intenciones (utilizando AWS Bedrock). La evaluación empírica demostró una alta precisión de análisis por parte del LLM (>95% de Precisión de Subconjunto en un conjunto de datos de evaluación de referencia) para modelos de primer nivel como Amazon Nova Pro/Premier y Mistral Pixtral Large, superando significativamente a un motor de referencia. Las pruebas de calidad de planificación en seis escenarios mostraron que el prototipo logró una ubicación superior o equivalente en comparación con las configuraciones estándar de Kubernetes, destacándose especialmente en escenarios complejos y cuantitativos, y manejando preferencias flexibles conflictivas. Los resultados validan el uso de LLMs para una planificación más accesible, pero destacan limitaciones como la latencia síncrona del LLM, sugiriendo el procesamiento asíncrono para su preparación en entornos productivos. Este trabajo confirma la viabilidad de la afinidad flexible semántica para simplificar la orquestación de cargas de trabajo.
English
Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.
PDF01January 16, 2026