ChatPaper.aiChatPaper

클러스터 워크로드 할당: 자연어 처리 기반 의미론적 소프트 어피니티

Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing

January 14, 2026
저자: Leszek Sliwko, Jolanta Mizeria-Pietraszko
cs.AI

초록

클러스터 워크로드 할당은 종종 복잡한 설정을 필요로 하여 사용성 격차를 발생시킵니다. 본 논문은 자연어 처리(NLP)를 활용한 클러스터 시스템을 위한 의미론적, 의도 기반 스케줄링 패러다임을 소개합니다. 본 시스템은 Kubernetes 스케줄러 익스텐더를 통해 통합된 대규모 언어 모델(LLM)을 사용하여 소프트 어피니티(soft affinity) 선호도를 위한 자연어 할당 힌트 주석을 해석합니다. 클러스터 상태 캐시와 의도 분석기(AWS Bedrock 사용)를 갖춘 프로토타입이 개발되었습니다. 실증 평가에서는 Amazon Nova Pro/Premier 및 Mistral Pixtral Large와 같은 최상위 모델들이 높은 LLM 파싱 정확도(평가 기준 데이터셋 기준 부분집합 정확도 >95%)를 보여 기준 엔진을 크게 능가했습니다. 여섯 가지 시나리오에 대한 스케줄링 품질 테스트에서 프로토타입은 표준 Kubernetes 설정에 비해 우수하거나 동등한 배치 성능을 달성했으며, 특히 복잡하고 정량적인 시나리오와 상충되는 소프트 선호도 처리에서 뛰어난 성능을 보였습니다. 결과는 접근성 높은 스케줄링을 위해 LLM을 사용하는 것을 검증하지만, 동기식 LLM 지연과 같은 한계점을 지적하며 프로덕션 환경 적용을 위한 비동기식 처리의 필요성을 시사합니다. 본 연구는 워크로드 오케스트레이션 간소화를 위한 의미론적 소프트 어피니티의 실현 가능성을 확인합니다.
English
Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.
PDF01January 16, 2026