ChatPaper.aiChatPaper

Invite contrastive de raisonnement en chaîne

Contrastive Chain-of-Thought Prompting

November 15, 2023
papers.authors: Yew Ken Chia, Guizhen Chen, Luu Anh Tuan, Soujanya Poria, Lidong Bing
cs.AI

papers.abstract

Malgré le succès de la chaîne de pensée pour améliorer le raisonnement des modèles de langage, le processus sous-jacent reste mal compris. Bien qu'un raisonnement logiquement solide semble intrinsèquement crucial pour la chaîne de pensée, des études antérieures révèlent, de manière surprenante, un impact minimal lors de l'utilisation de démonstrations invalides. De plus, la chaîne de pensée conventionnelle n'indique pas aux modèles de langage quelles erreurs éviter, ce qui peut potentiellement conduire à davantage d'erreurs. Ainsi, inspirés par la manière dont les humains peuvent apprendre à partir d'exemples positifs et négatifs, nous proposons la chaîne de pensée contrastive pour améliorer le raisonnement des modèles de langage. Par rapport à la chaîne de pensée conventionnelle, notre approche fournit à la fois des démonstrations de raisonnement valides et invalides, guidant ainsi le modèle à raisonner étape par étape tout en réduisant les erreurs de raisonnement. Pour améliorer la généralisation, nous introduisons une méthode automatique pour construire des démonstrations contrastives. Nos expériences sur des benchmarks de raisonnement démontrent que la chaîne de pensée contrastive peut servir d'amélioration générale de l'incitation par chaîne de pensée.
English
Despite the success of chain of thought in enhancing language model reasoning, the underlying process remains less well understood. Although logically sound reasoning appears inherently crucial for chain of thought, prior studies surprisingly reveal minimal impact when using invalid demonstrations instead. Furthermore, the conventional chain of thought does not inform language models on what mistakes to avoid, which potentially leads to more errors. Hence, inspired by how humans can learn from both positive and negative examples, we propose contrastive chain of thought to enhance language model reasoning. Compared to the conventional chain of thought, our approach provides both valid and invalid reasoning demonstrations, to guide the model to reason step-by-step while reducing reasoning mistakes. To improve generalization, we introduce an automatic method to construct contrastive demonstrations. Our experiments on reasoning benchmarks demonstrate that contrastive chain of thought can serve as a general enhancement of chain-of-thought prompting.
PDF364December 15, 2024