Invite contrastive de raisonnement en chaîne
Contrastive Chain-of-Thought Prompting
November 15, 2023
papers.authors: Yew Ken Chia, Guizhen Chen, Luu Anh Tuan, Soujanya Poria, Lidong Bing
cs.AI
papers.abstract
Malgré le succès de la chaîne de pensée pour améliorer le raisonnement des modèles de langage, le processus sous-jacent reste mal compris. Bien qu'un raisonnement logiquement solide semble intrinsèquement crucial pour la chaîne de pensée, des études antérieures révèlent, de manière surprenante, un impact minimal lors de l'utilisation de démonstrations invalides. De plus, la chaîne de pensée conventionnelle n'indique pas aux modèles de langage quelles erreurs éviter, ce qui peut potentiellement conduire à davantage d'erreurs. Ainsi, inspirés par la manière dont les humains peuvent apprendre à partir d'exemples positifs et négatifs, nous proposons la chaîne de pensée contrastive pour améliorer le raisonnement des modèles de langage. Par rapport à la chaîne de pensée conventionnelle, notre approche fournit à la fois des démonstrations de raisonnement valides et invalides, guidant ainsi le modèle à raisonner étape par étape tout en réduisant les erreurs de raisonnement. Pour améliorer la généralisation, nous introduisons une méthode automatique pour construire des démonstrations contrastives. Nos expériences sur des benchmarks de raisonnement démontrent que la chaîne de pensée contrastive peut servir d'amélioration générale de l'incitation par chaîne de pensée.
English
Despite the success of chain of thought in enhancing language model
reasoning, the underlying process remains less well understood. Although
logically sound reasoning appears inherently crucial for chain of thought,
prior studies surprisingly reveal minimal impact when using invalid
demonstrations instead. Furthermore, the conventional chain of thought does not
inform language models on what mistakes to avoid, which potentially leads to
more errors. Hence, inspired by how humans can learn from both positive and
negative examples, we propose contrastive chain of thought to enhance language
model reasoning. Compared to the conventional chain of thought, our approach
provides both valid and invalid reasoning demonstrations, to guide the model to
reason step-by-step while reducing reasoning mistakes. To improve
generalization, we introduce an automatic method to construct contrastive
demonstrations. Our experiments on reasoning benchmarks demonstrate that
contrastive chain of thought can serve as a general enhancement of
chain-of-thought prompting.