ChatPaper.aiChatPaper

Syzygie des Pensées : Améliorer le Raisonnement en Chaîne des LLM grâce à la Résolution Libre Minimale

Syzygy of Thoughts: Improving LLM CoT with the Minimal Free Resolution

April 13, 2025
Auteurs: Chenghao Li, Chaoning Zhang, Yi Lu, Jiaquan Zhang, Qigan Sun, Xudong Wang, Jiwei Wei, Guoqing Wang, Yang Yang, Heng Tao Shen
cs.AI

Résumé

Le prompt Chain-of-Thought (CoT) améliore le raisonnement des grands modèles de langage (LLMs) en décomposant les problèmes en étapes séquentielles, imitant la logique humaine et réduisant les erreurs. Cependant, les tâches complexes avec des espaces de solutions vastes et des contraintes floues dépassent souvent la capacité d'une seule chaîne de raisonnement. Inspiré par la Résolution Libre Minimale (MFR) en algèbre commutative et géométrie algébrique, nous proposons Syzygy of Thoughts (SoT) - un nouveau cadre qui étend le CoT en introduisant des chemins de raisonnement auxiliaires et interreliés. SoT capture des dépendances logiques plus profondes, permettant une résolution de problèmes plus robuste et structurée. La MFR décompose un module en une séquence de modules libres de rang minimal, offrant une approche analytique structurée pour les systèmes complexes. Cette méthode introduit les concepts de "Module", "Nombres de Betti", "Liberté", "Application", "Exactitude" et "Minimalité", permettant la décomposition systématique du problème complexe original en sous-problèmes minimaux logiquement complets tout en préservant les caractéristiques clés du problème et en réduisant la longueur du raisonnement. Nous avons testé SoT sur divers ensembles de données (par exemple, GSM8K, MATH) et modèles (par exemple, GPT-4o-mini, Qwen2.5), atteignant une précision d'inférence qui correspond ou dépasse les standards CoT dominants. De plus, en alignant le processus d'échantillonnage sur les contraintes algébriques, notre approche améliore l'évolutivité du temps d'inférence dans les LLMs, garantissant à la fois un raisonnement transparent et des performances élevées. Notre code sera disponible publiquement à l'adresse https://github.com/dlMARiA/Syzygy-of-thoughts.
English
Chain-of-Thought (CoT) prompting enhances the reasoning of large language models (LLMs) by decomposing problems into sequential steps, mimicking human logic and reducing errors. However, complex tasks with vast solution spaces and vague constraints often exceed the capacity of a single reasoning chain. Inspired by Minimal Free Resolution (MFR) in commutative algebra and algebraic geometry, we propose Syzygy of Thoughts (SoT)-a novel framework that extends CoT by introducing auxiliary, interrelated reasoning paths. SoT captures deeper logical dependencies, enabling more robust and structured problem-solving. MFR decomposes a module into a sequence of free modules with minimal rank, providing a structured analytical approach to complex systems. This method introduces the concepts of "Module", "Betti numbers","Freeness", "Mapping", "Exactness" and "Minimality", enabling the systematic decomposition of the original complex problem into logically complete minimal subproblems while preserving key problem features and reducing reasoning length. We tested SoT across diverse datasets (e.g., GSM8K, MATH) and models (e.g., GPT-4o-mini, Qwen2.5), achieving inference accuracy that matches or surpasses mainstream CoTs standards. Additionally, by aligning the sampling process with algebraic constraints, our approach enhances the scalability of inference time in LLMs, ensuring both transparent reasoning and high performance. Our code will be publicly available at https://github.com/dlMARiA/Syzygy-of-thoughts.

Summary

AI-Generated Summary

PDF102April 17, 2025