サプライチェーン最適化のための大規模言語モデル
Large Language Models for Supply Chain Optimization
July 8, 2023
著者: Beibin Li, Konstantina Mellou, Bo Zhang, Jeevan Pathuri, Ishai Menache
cs.AI
要旨
サプライチェーン運用は伝統的に、さまざまな複雑な意思決定問題を伴います。過去数十年間、サプライチェーンは計算技術の進歩から大きな恩恵を受け、手動処理から自動化およびコスト効率の最適化への移行が可能になりました。しかしながら、ビジネスオペレーターは依然として、最適化結果をステークホルダーに説明し解釈するために多大な労力を費やす必要があります。近年の大規模言語モデル(LLMs)の進展に触発され、私たちはこの革新的技術がサプライチェーン自動化と人間の理解および信頼の間のギャップを埋めるのにどのように役立つかを研究します。私たちは、平文のクエリを入力として受け取り、基盤となる最適化結果に関する洞察を出力するフレームワークを設計しました。私たちのフレームワークは、最先端の組み合わせ最適化技術を放棄するのではなく、むしろそれを活用して、what-ifシナリオ(例えば、特定の需要に対してサプライヤーAではなくサプライヤーBを使用した場合、コストはどのように変化するか?)を定量的に回答します。重要なことに、私たちの設計は、プライバシー上の懸念となる可能性のあるプロプライエタリデータをLLMsに送信する必要がありません。私たちは、Microsoftのクラウドサプライチェーン内での実際のサーバー配置シナリオにおいて、このフレームワークの有効性を実証します。その過程で、他のシナリオでもLLM出力の精度を評価するために使用できる一般的な評価ベンチマークを開発します。
English
Supply chain operations traditionally involve a variety of complex decision
making problems. Over the last few decades, supply chains greatly benefited
from advances in computation, which allowed the transition from manual
processing to automation and cost-effective optimization. Nonetheless, business
operators still need to spend substantial efforts in explaining and
interpreting the optimization outcomes to stakeholders. Motivated by the recent
advances in Large Language Models (LLMs), we study how this disruptive
technology can help bridge the gap between supply chain automation and human
comprehension and trust thereof. We design -- a framework that accepts
as input queries in plain text, and outputs insights about the underlying
optimization outcomes. Our framework does not forgo the state-of-the-art
combinatorial optimization technology, but rather leverages it to
quantitatively answer what-if scenarios (e.g., how would the cost change if we
used supplier B instead of supplier A for a given demand?). Importantly, our
design does not require sending proprietary data over to LLMs, which can be a
privacy concern in some circumstances. We demonstrate the effectiveness of our
framework on a real server placement scenario within Microsoft's cloud supply
chain. Along the way, we develop a general evaluation benchmark, which can be
used to evaluate the accuracy of the LLM output in other scenarios.