Kontrastives Chain-of-Thought-Prompting
Contrastive Chain-of-Thought Prompting
November 15, 2023
Autoren: Yew Ken Chia, Guizhen Chen, Luu Anh Tuan, Soujanya Poria, Lidong Bing
cs.AI
Zusammenfassung
Trotz des Erfolgs von Chain of Thought bei der Verbesserung des logischen Denkens von Sprachmodellen bleibt der zugrunde liegende Prozess weniger gut verstanden. Obwohl logisch fundiertes Denken für Chain of Thought offensichtlich von entscheidender Bedeutung zu sein scheint, zeigen frühere Studien überraschenderweise nur minimale Auswirkungen, wenn stattdessen ungültige Demonstrationen verwendet werden. Darüber hinaus informiert der konventionelle Chain of Thought Sprachmodelle nicht darüber, welche Fehler vermieden werden sollten, was potenziell zu mehr Fehlern führt. Daher schlagen wir, inspiriert davon, wie Menschen sowohl aus positiven als auch aus negativen Beispielen lernen können, den kontrastiven Chain of Thought vor, um das logische Denken von Sprachmodellen zu verbessern. Im Vergleich zum konventionellen Chain of Thought bietet unser Ansatz sowohl gültige als auch ungültige Denkdemonstrationen, um das Modell schrittweise zu leiten und gleichzeitig Denkfehler zu reduzieren. Um die Generalisierung zu verbessern, führen wir eine automatische Methode zur Erstellung kontrastiver Demonstrationen ein. Unsere Experimente mit logischen Benchmarks zeigen, dass der kontrastive Chain of Thought als allgemeine Verbesserung des Chain-of-Thought-Promptings dienen kann.
English
Despite the success of chain of thought in enhancing language model
reasoning, the underlying process remains less well understood. Although
logically sound reasoning appears inherently crucial for chain of thought,
prior studies surprisingly reveal minimal impact when using invalid
demonstrations instead. Furthermore, the conventional chain of thought does not
inform language models on what mistakes to avoid, which potentially leads to
more errors. Hence, inspired by how humans can learn from both positive and
negative examples, we propose contrastive chain of thought to enhance language
model reasoning. Compared to the conventional chain of thought, our approach
provides both valid and invalid reasoning demonstrations, to guide the model to
reason step-by-step while reducing reasoning mistakes. To improve
generalization, we introduce an automatic method to construct contrastive
demonstrations. Our experiments on reasoning benchmarks demonstrate that
contrastive chain of thought can serve as a general enhancement of
chain-of-thought prompting.