ChatPaper.aiChatPaper

大規模言語モデルにおける論理推論:サーベイ

Logical Reasoning in Large Language Models: A Survey

February 13, 2025
著者: Hanmeng Liu, Zhizhang Fu, Mengru Ding, Ruoxi Ning, Chaoli Zhang, Xiaozhang Liu, Yue Zhang
cs.AI

要旨

OpenAI o3 や DeepSeek-R1 などの高度な推論モデルの台頭により、大規模言語モデル(LLMs)は顕著な推論能力を示しています。ただし、厳密な論理推論を行う能力は未解決の問題です。本調査は、LLMs内の論理推論の最近の進展を総合し、AI研究の重要な分野である論理推論に焦点を当てています。LLMsにおける論理推論の範囲、その理論的基盤、および推論能力を評価するために使用されるベンチマークを概説しています。我々は、演繹的、帰納的、推論的、類推的といった異なる推論パラダイムにわたる既存の能力を分析し、データ中心の調整、強化学習、デコーディング戦略、および神経記号アプローチなど、推論パフォーマンスを向上させる戦略を評価しています。レビューは、AIシステムにおける論理推論を強化するためのさらなる探求の必要性を強調しつつ、将来の方向性で締めくくります。
English
With the emergence of advanced reasoning models like OpenAI o3 and DeepSeek-R1, large language models (LLMs) have demonstrated remarkable reasoning capabilities. However, their ability to perform rigorous logical reasoning remains an open question. This survey synthesizes recent advancements in logical reasoning within LLMs, a critical area of AI research. It outlines the scope of logical reasoning in LLMs, its theoretical foundations, and the benchmarks used to evaluate reasoning proficiency. We analyze existing capabilities across different reasoning paradigms - deductive, inductive, abductive, and analogical - and assess strategies to enhance reasoning performance, including data-centric tuning, reinforcement learning, decoding strategies, and neuro-symbolic approaches. The review concludes with future directions, emphasizing the need for further exploration to strengthen logical reasoning in AI systems.

Summary

AI-Generated Summary

PDF235February 14, 2025