ChatPaper.aiChatPaper

공급망 최적화를 위한 대규모 언어 모델

Large Language Models for Supply Chain Optimization

July 8, 2023
저자: Beibin Li, Konstantina Mellou, Bo Zhang, Jeevan Pathuri, Ishai Menache
cs.AI

초록

공급망 운영은 전통적으로 다양한 복잡한 의사결정 문제를 포함합니다. 지난 수십 년 동안, 공급망은 컴퓨팅 기술의 발전으로 큰 혜택을 받았으며, 이는 수동 처리에서 자동화 및 비용 효율적인 최적화로의 전환을 가능하게 했습니다. 그럼에도 불구하고, 비즈니스 운영자들은 여전히 이해관계자들에게 최적화 결과를 설명하고 해석하는 데 상당한 노력을 기울여야 합니다. 최근 대규모 언어 모델(LLM)의 발전에 영감을 받아, 우리는 이 혁신적인 기술이 공급망 자동화와 인간의 이해 및 신뢰 간의 격차를 어떻게 해소할 수 있는지 연구합니다. 우리는 일반 텍스트로 입력된 질의를 받아들이고, 기본 최적화 결과에 대한 통찰력을 출력하는 프레임워크를 설계합니다. 우리의 프레임워크는 최신 조합 최적화 기술을 포기하지 않고, 오히려 이를 활용하여 "만약에" 시나리오(예: 주어진 수요에 대해 공급자 A 대신 공급자 B를 사용하면 비용이 어떻게 변할까요?)를 정량적으로 답변합니다. 특히, 우리의 설계는 LLM에 독점 데이터를 전송할 필요가 없어, 일부 상황에서 프라이버시 문제가 될 수 있는 점을 고려했습니다. 우리는 Microsoft의 클라우드 공급망 내에서 실제 서버 배치 시나리오를 통해 우리 프레임워크의 효과를 입증합니다. 이를 통해, 우리는 다른 시나리오에서 LLM 출력의 정확성을 평가하는 데 사용할 수 있는 일반적인 평가 벤치마크를 개발합니다.
English
Supply chain operations traditionally involve a variety of complex decision making problems. Over the last few decades, supply chains greatly benefited from advances in computation, which allowed the transition from manual processing to automation and cost-effective optimization. Nonetheless, business operators still need to spend substantial efforts in explaining and interpreting the optimization outcomes to stakeholders. Motivated by the recent advances in Large Language Models (LLMs), we study how this disruptive technology can help bridge the gap between supply chain automation and human comprehension and trust thereof. We design -- a framework that accepts as input queries in plain text, and outputs insights about the underlying optimization outcomes. Our framework does not forgo the state-of-the-art combinatorial optimization technology, but rather leverages it to quantitatively answer what-if scenarios (e.g., how would the cost change if we used supplier B instead of supplier A for a given demand?). Importantly, our design does not require sending proprietary data over to LLMs, which can be a privacy concern in some circumstances. We demonstrate the effectiveness of our framework on a real server placement scenario within Microsoft's cloud supply chain. Along the way, we develop a general evaluation benchmark, which can be used to evaluate the accuracy of the LLM output in other scenarios.
PDF182December 15, 2024