ChatPaper.aiChatPaper

자기 조화된 사고 연쇄

Self-Harmonized Chain of Thought

September 6, 2024
저자: Ziqi Jin, Wei Lu
cs.AI

초록

Chain-of-Thought (CoT) 프롬프팅은 대형 언어 모델이 중간 단계를 통해 복잡한 추론을 수행할 수 있는 능력을 보여줍니다. CoT 프롬프팅은 주로 세 가지 접근 방식으로 분류됩니다. 첫 번째 접근 방식은 "한 단계씩 생각해 봅시다"와 같은 간단한 프롬프트를 활용하여 답변을 도출하기 전에 순차적인 사고 과정을 생성합니다. 두 번째 접근 방식은 인간이 작성한 단계별 데모를 활용하여 모델의 추론 과정을 안내합니다. 세 번째는 '한 단계씩 생각해 봅시다'를 사용하여 추론 데모를 자동으로 생성합니다. 이 접근 방식은 때로 추론 오류를 유발하여, 그 혼란을 완화하기 위해 다양한 데모를 다양화해야 한다는 필요성을 강조합니다. 그러나 다양한 데모는 효과적인 표현에 대한 도전을 제기합니다. 본 연구에서는 다양한 해결 경로를 균일하고 효과적인 해결 패턴으로 통합하는 자체 조화형 Chain-of-Thought 프롬프팅 방법인 ECHO를 제안합니다. ECHO는 세 가지 추론 도메인 전반에서 최고의 성능을 보여줍니다.
English
Chain-of-Thought (CoT) prompting reveals that large language models are capable of performing complex reasoning via intermediate steps. CoT prompting is primarily categorized into three approaches. The first approach utilizes straightforward prompts like ``Let's think step by step'' to generate a sequential thought process before yielding an answer. The second approach makes use of human-crafted, step-by-step demonstrations to guide the model's reasoning process. The third automates the generation of reasoned demonstrations with the 'Let's think step by step'.This approach sometimes leads to reasoning errors, highlighting the need to diversify demonstrations to mitigate its misleading effects. However, diverse demonstrations pose challenges for effective representations. In this work, we propose ECHO, a self-harmonized chain-of-thought prompting method. It consolidates diverse solution paths into a uniform and effective solution pattern.ECHO demonstrates the best overall performance across three reasoning domains.

Summary

AI-Generated Summary

PDF187November 16, 2024