ChatPaper.aiChatPaper

Raisonnement logique dans les grands modèles de langage : Une enquête

Logical Reasoning in Large Language Models: A Survey

February 13, 2025
Auteurs: Hanmeng Liu, Zhizhang Fu, Mengru Ding, Ruoxi Ning, Chaoli Zhang, Xiaozhang Liu, Yue Zhang
cs.AI

Résumé

Avec l'émergence de modèles de raisonnement avancés tels que OpenAI o3 et DeepSeek-R1, les grands modèles de langage (GML) ont démontré des capacités de raisonnement remarquables. Cependant, leur capacité à effectuer un raisonnement logique rigoureux reste une question ouverte. Cette enquête synthétise les récents progrès en matière de raisonnement logique au sein des GML, un domaine critique de la recherche en IA. Elle décrit le champ du raisonnement logique dans les GML, ses fondements théoriques et les benchmarks utilisés pour évaluer la compétence en raisonnement. Nous analysons les capacités existantes à travers différents paradigmes de raisonnement - déductif, inductif, abductif et analogique - et évaluons les stratégies pour améliorer les performances en raisonnement, y compris l'ajustement centré sur les données, l'apprentissage par renforcement, les stratégies de décodage et les approches neuro-symboliques. La revue se conclut par des orientations futures, en soulignant la nécessité d'une exploration approfondie pour renforcer le raisonnement logique dans les systèmes d'IA.
English
With the emergence of advanced reasoning models like OpenAI o3 and DeepSeek-R1, large language models (LLMs) have demonstrated remarkable reasoning capabilities. However, their ability to perform rigorous logical reasoning remains an open question. This survey synthesizes recent advancements in logical reasoning within LLMs, a critical area of AI research. It outlines the scope of logical reasoning in LLMs, its theoretical foundations, and the benchmarks used to evaluate reasoning proficiency. We analyze existing capabilities across different reasoning paradigms - deductive, inductive, abductive, and analogical - and assess strategies to enhance reasoning performance, including data-centric tuning, reinforcement learning, decoding strategies, and neuro-symbolic approaches. The review concludes with future directions, emphasizing the need for further exploration to strengthen logical reasoning in AI systems.

Summary

AI-Generated Summary

PDF235February 14, 2025