大規模言語モデルにおけるツール内学習の実証的利点
Provable Benefits of In-Tool Learning for Large Language Models
August 28, 2025
著者: Sam Houliston, Ambroise Odonnat, Charles Arnal, Vivien Cabannes
cs.AI
要旨
ツール拡張型言語モデルは、検索機能、メモリ、または外部APIを備えることでAIを再構築していますが、その理論的な利点はまだ十分に探究されていません。本論文では、事実の想起において、ツール内学習(外部検索)が重み内学習(記憶)よりも優れていることを示すことで、この問題に取り組みます。モデルが重みのみで記憶できる事実の数は、そのパラメータ数によって根本的に制限されることを示します。一方で、ツールの使用により、単純で効率的な回路構成を通じて無制限の事実想起が可能になることを証明します。これらの結果は、制御された実験で検証され、ツールを使用するモデルが記憶に頼るモデルを一貫して上回ることが示されました。さらに、事前学習済みの大規模言語モデルにおいて、ツールの使用法や一般的なルールを教えることが、事実を記憶に微調整するよりも効果的であることを示します。本研究は、ツール拡張型のワークフローが実用的であるだけでなく、理論的にもスケーラブルであることを確立する、理論的および実証的な基盤を提供します。
English
Tool-augmented language models, equipped with retrieval, memory, or external
APIs, are reshaping AI, yet their theoretical advantages remain underexplored.
In this paper, we address this question by demonstrating the benefits of
in-tool learning (external retrieval) over in-weight learning (memorization)
for factual recall. We show that the number of facts a model can memorize
solely in its weights is fundamentally limited by its parameter count. In
contrast, we prove that tool-use enables unbounded factual recall via a simple
and efficient circuit construction. These results are validated in controlled
experiments, where tool-using models consistently outperform memorizing ones.
We further show that for pretrained large language models, teaching tool-use
and general rules is more effective than finetuning facts into memory. Our work
provides both a theoretical and empirical foundation, establishing why
tool-augmented workflows are not just practical, but provably more scalable.