Prompting Contrastivo de Cadeia de Pensamento
Contrastive Chain-of-Thought Prompting
November 15, 2023
Autores: Yew Ken Chia, Guizhen Chen, Luu Anh Tuan, Soujanya Poria, Lidong Bing
cs.AI
Resumo
Apesar do sucesso da cadeia de pensamento em aprimorar o raciocínio dos modelos de linguagem, o processo subjacente ainda é pouco compreendido. Embora o raciocínio logicamente sólido pareça intrinsecamente crucial para a cadeia de pensamento, estudos anteriores revelam, surpreendentemente, um impacto mínimo ao usar demonstrações inválidas. Além disso, a cadeia de pensamento convencional não informa os modelos de linguagem sobre quais erros evitar, o que potencialmente leva a mais erros. Portanto, inspirados pela forma como os humanos podem aprender com exemplos positivos e negativos, propomos a cadeia de pensamento contrastante para aprimorar o raciocínio dos modelos de linguagem. Em comparação com a cadeia de pensamento convencional, nossa abordagem fornece demonstrações de raciocínio válidas e inválidas, para orientar o modelo a raciocinar passo a passo, reduzindo erros de raciocínio. Para melhorar a generalização, introduzimos um método automático para construir demonstrações contrastantes. Nossos experimentos em benchmarks de raciocínio demonstram que a cadeia de pensamento contrastante pode servir como um aprimoramento geral da técnica de prompting de cadeia de pensamento.
English
Despite the success of chain of thought in enhancing language model
reasoning, the underlying process remains less well understood. Although
logically sound reasoning appears inherently crucial for chain of thought,
prior studies surprisingly reveal minimal impact when using invalid
demonstrations instead. Furthermore, the conventional chain of thought does not
inform language models on what mistakes to avoid, which potentially leads to
more errors. Hence, inspired by how humans can learn from both positive and
negative examples, we propose contrastive chain of thought to enhance language
model reasoning. Compared to the conventional chain of thought, our approach
provides both valid and invalid reasoning demonstrations, to guide the model to
reason step-by-step while reducing reasoning mistakes. To improve
generalization, we introduce an automatic method to construct contrastive
demonstrations. Our experiments on reasoning benchmarks demonstrate that
contrastive chain of thought can serve as a general enhancement of
chain-of-thought prompting.