ChatPaper.aiChatPaper

InductionBench: 最も単純な複雑度クラスにおいてLLMは失敗する

InductionBench: LLMs Fail in the Simplest Complexity Class

February 20, 2025
著者: Wenyue Hua, Tyler Wong, Sun Fei, Liangming Pan, Adam Jardine, William Yang Wang
cs.AI

要旨

大規模言語モデル(LLMs)は、推論において著しい改善を示し、o1やo3などのモデルによって、既存の多くのベンチマークが完全または部分的に対処されてきました。しかし、これらのベンチマークの大部分は、数学的公理やプログラミング構文などのルールが明確に定義された数学的およびコーディングタスクを含む帰納的推論を重視しています。これらのルールに基づいて、LLMsは計画を立て、これらのルールを適用して解決策に至ることができます。一方、観測されたデータから基礎となるルールを推論する帰納的推論は、未だに探求されていない領域です。このような帰納的プロセスは科学的発見の核心にあり、研究者が経験的観察から一般的な原則を抽出することを可能にします。LLMsがこの能力を持っているかどうかを評価するために、帰納的推論能力を評価するために設計された新しいベンチマークであるInductionBenchを導入します。実験結果は、現在の最も先進的なモデルでさえ、サブレギュラー階層の関数内の最も単純な複雑性クラスを習得するのに苦労していることを示し、現在のLLMsの帰納的推論能力に顕著な欠陥があることを浮き彫りにします。Codaとデータはhttps://github.com/Wenyueh/inductive_reasoning_benchmarkで入手可能です。
English
Large language models (LLMs) have shown remarkable improvements in reasoning and many existing benchmarks have been addressed by models such as o1 and o3 either fully or partially. However, a majority of these benchmarks emphasize deductive reasoning, including mathematical and coding tasks in which rules such as mathematical axioms or programming syntax are clearly defined, based on which LLMs can plan and apply these rules to arrive at a solution. In contrast, inductive reasoning, where one infers the underlying rules from observed data, remains less explored. Such inductive processes lie at the heart of scientific discovery, as they enable researchers to extract general principles from empirical observations. To assess whether LLMs possess this capacity, we introduce InductionBench, a new benchmark designed to evaluate the inductive reasoning ability of LLMs. Our experimental findings reveal that even the most advanced models available struggle to master the simplest complexity classes within the subregular hierarchy of functions, highlighting a notable deficiency in current LLMs' inductive reasoning capabilities. Coda and data are available https://github.com/Wenyueh/inductive_reasoning_benchmark.

Summary

AI-Generated Summary

PDF72February 25, 2025