Prompting a Catena di Pensiero Contrastiva
Contrastive Chain-of-Thought Prompting
November 15, 2023
Autori: Yew Ken Chia, Guizhen Chen, Luu Anh Tuan, Soujanya Poria, Lidong Bing
cs.AI
Abstract
Nonostante il successo del ragionamento a catena nel potenziare il ragionamento dei modelli linguistici, il processo sottostante rimane meno compreso. Sebbene un ragionamento logicamente solido appaia intrinsecamente cruciale per il ragionamento a catena, studi precedenti rivelano sorprendentemente un impatto minimo quando si utilizzano dimostrazioni non valide. Inoltre, il convenzionale ragionamento a catena non informa i modelli linguistici su quali errori evitare, il che potenzialmente porta a un maggior numero di errori. Pertanto, ispirati da come gli esseri umani possono apprendere sia da esempi positivi che negativi, proponiamo il ragionamento a catena contrastivo per migliorare il ragionamento dei modelli linguistici. Rispetto al convenzionale ragionamento a catena, il nostro approccio fornisce sia dimostrazioni di ragionamento valide che non valide, per guidare il modello a ragionare passo dopo passo riducendo gli errori di ragionamento. Per migliorare la generalizzazione, introduciamo un metodo automatico per costruire dimostrazioni contrastive. I nostri esperimenti su benchmark di ragionamento dimostrano che il ragionamento a catena contrastivo può servire come un potenziamento generale del prompting a catena di pensiero.
English
Despite the success of chain of thought in enhancing language model
reasoning, the underlying process remains less well understood. Although
logically sound reasoning appears inherently crucial for chain of thought,
prior studies surprisingly reveal minimal impact when using invalid
demonstrations instead. Furthermore, the conventional chain of thought does not
inform language models on what mistakes to avoid, which potentially leads to
more errors. Hence, inspired by how humans can learn from both positive and
negative examples, we propose contrastive chain of thought to enhance language
model reasoning. Compared to the conventional chain of thought, our approach
provides both valid and invalid reasoning demonstrations, to guide the model to
reason step-by-step while reducing reasoning mistakes. To improve
generalization, we introduce an automatic method to construct contrastive
demonstrations. Our experiments on reasoning benchmarks demonstrate that
contrastive chain of thought can serve as a general enhancement of
chain-of-thought prompting.