ChatPaper.aiChatPaper

Prompting a Catena di Pensiero Contrastiva

Contrastive Chain-of-Thought Prompting

November 15, 2023
Autori: Yew Ken Chia, Guizhen Chen, Luu Anh Tuan, Soujanya Poria, Lidong Bing
cs.AI

Abstract

Nonostante il successo del ragionamento a catena nel potenziare il ragionamento dei modelli linguistici, il processo sottostante rimane meno compreso. Sebbene un ragionamento logicamente solido appaia intrinsecamente cruciale per il ragionamento a catena, studi precedenti rivelano sorprendentemente un impatto minimo quando si utilizzano dimostrazioni non valide. Inoltre, il convenzionale ragionamento a catena non informa i modelli linguistici su quali errori evitare, il che potenzialmente porta a un maggior numero di errori. Pertanto, ispirati da come gli esseri umani possono apprendere sia da esempi positivi che negativi, proponiamo il ragionamento a catena contrastivo per migliorare il ragionamento dei modelli linguistici. Rispetto al convenzionale ragionamento a catena, il nostro approccio fornisce sia dimostrazioni di ragionamento valide che non valide, per guidare il modello a ragionare passo dopo passo riducendo gli errori di ragionamento. Per migliorare la generalizzazione, introduciamo un metodo automatico per costruire dimostrazioni contrastive. I nostri esperimenti su benchmark di ragionamento dimostrano che il ragionamento a catena contrastivo può servire come un potenziamento generale del prompting a catena di pensiero.
English
Despite the success of chain of thought in enhancing language model reasoning, the underlying process remains less well understood. Although logically sound reasoning appears inherently crucial for chain of thought, prior studies surprisingly reveal minimal impact when using invalid demonstrations instead. Furthermore, the conventional chain of thought does not inform language models on what mistakes to avoid, which potentially leads to more errors. Hence, inspired by how humans can learn from both positive and negative examples, we propose contrastive chain of thought to enhance language model reasoning. Compared to the conventional chain of thought, our approach provides both valid and invalid reasoning demonstrations, to guide the model to reason step-by-step while reducing reasoning mistakes. To improve generalization, we introduce an automatic method to construct contrastive demonstrations. Our experiments on reasoning benchmarks demonstrate that contrastive chain of thought can serve as a general enhancement of chain-of-thought prompting.
PDF364December 15, 2024