ChatPaper.aiChatPaper

Self-Discover: 대형 언어 모델의 자기 구성 추론 구조

Self-Discover: Large Language Models Self-Compose Reasoning Structures

February 6, 2024
저자: Pei Zhou, Jay Pujara, Xiang Ren, Xinyun Chen, Heng-Tze Cheng, Quoc V. Le, Ed H. Chi, Denny Zhou, Swaroop Mishra, Huaixiu Steven Zheng
cs.AI

초록

우리는 복잡한 추론 문제를 해결하기 위해 LLM(Large Language Model)이 작업 고유의 추론 구조를 스스로 발견할 수 있는 일반 프레임워크인 SELF-DISCOVER를 소개합니다. 이 프레임워크의 핵심은 LLM이 비판적 사고와 단계별 사고와 같은 여러 원자적 추론 모듈을 선택하고 이를 명시적 추론 구조로 구성하여 디코딩 과정에서 따르도록 하는 자기 발견 프로세스입니다. SELF-DISCOVER는 BigBench-Hard, 근거 기반 에이전트 추론, MATH와 같은 도전적인 추론 벤치마크에서 GPT-4와 PaLM 2의 성능을 Chain of Thought(CoT) 대비 최대 32%까지 크게 향상시킵니다. 또한, SELF-DISCOVER는 CoT-Self-Consistency와 같은 추론 집약적 방법보다 20% 이상 우수한 성능을 보이면서도 추론 계산량을 10~40배 적게 요구합니다. 마지막으로, 우리는 자기 발견된 추론 구조가 PaLM 2-L에서 GPT-4, GPT-4에서 Llama2에 이르기까지 다양한 모델 패밀리에서 보편적으로 적용 가능하며, 인간의 추론 패턴과 공통점을 공유함을 보여줍니다.
English
We introduce SELF-DISCOVER, a general framework for LLMs to self-discover the task-intrinsic reasoning structures to tackle complex reasoning problems that are challenging for typical prompting methods. Core to the framework is a self-discovery process where LLMs select multiple atomic reasoning modules such as critical thinking and step-by-step thinking, and compose them into an explicit reasoning structure for LLMs to follow during decoding. SELF-DISCOVER substantially improves GPT-4 and PaLM 2's performance on challenging reasoning benchmarks such as BigBench-Hard, grounded agent reasoning, and MATH, by as much as 32% compared to Chain of Thought (CoT). Furthermore, SELF-DISCOVER outperforms inference-intensive methods such as CoT-Self-Consistency by more than 20%, while requiring 10-40x fewer inference compute. Finally, we show that the self-discovered reasoning structures are universally applicable across model families: from PaLM 2-L to GPT-4, and from GPT-4 to Llama2, and share commonalities with human reasoning patterns.
PDF11610December 15, 2024