ChatPaper.aiChatPaper

InductionBench: LLMs Falham na Classe de Complexidade Mais Simples

InductionBench: LLMs Fail in the Simplest Complexity Class

February 20, 2025
Autores: Wenyue Hua, Tyler Wong, Sun Fei, Liangming Pan, Adam Jardine, William Yang Wang
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) têm demonstrado melhorias notáveis em raciocínio, e muitos benchmarks existentes foram abordados total ou parcialmente por modelos como o1 e o3. No entanto, a maioria desses benchmarks enfatiza o raciocínio dedutivo, incluindo tarefas matemáticas e de programação, nas quais regras como axiomas matemáticos ou sintaxe de programação são claramente definidas, permitindo que os LLMs planejem e apliquem essas regras para chegar a uma solução. Em contraste, o raciocínio indutivo, onde se infere as regras subjacentes a partir de dados observados, permanece menos explorado. Tais processos indutivos estão no cerne da descoberta científica, pois permitem que pesquisadores extraiam princípios gerais a partir de observações empíricas. Para avaliar se os LLMs possuem essa capacidade, introduzimos o InductionBench, um novo benchmark projetado para avaliar a habilidade de raciocínio indutivo dos LLMs. Nossos resultados experimentais revelam que mesmo os modelos mais avançados disponíveis lutam para dominar as classes de complexidade mais simples dentro da hierarquia subregular de funções, destacando uma deficiência notável nas capacidades de raciocínio indutivo dos LLMs atuais. O código e os dados estão disponíveis em https://github.com/Wenyueh/inductive_reasoning_benchmark.
English
Large language models (LLMs) have shown remarkable improvements in reasoning and many existing benchmarks have been addressed by models such as o1 and o3 either fully or partially. However, a majority of these benchmarks emphasize deductive reasoning, including mathematical and coding tasks in which rules such as mathematical axioms or programming syntax are clearly defined, based on which LLMs can plan and apply these rules to arrive at a solution. In contrast, inductive reasoning, where one infers the underlying rules from observed data, remains less explored. Such inductive processes lie at the heart of scientific discovery, as they enable researchers to extract general principles from empirical observations. To assess whether LLMs possess this capacity, we introduce InductionBench, a new benchmark designed to evaluate the inductive reasoning ability of LLMs. Our experimental findings reveal that even the most advanced models available struggle to master the simplest complexity classes within the subregular hierarchy of functions, highlighting a notable deficiency in current LLMs' inductive reasoning capabilities. Coda and data are available https://github.com/Wenyueh/inductive_reasoning_benchmark.

Summary

AI-Generated Summary

PDF72February 25, 2025