컨텍스트 내 스킬 프롬프팅: 대규모 언어 모델의 조합성 해제
Skills-in-Context Prompting: Unlocking Compositionality in Large Language Models
August 1, 2023
저자: Jiaao Chen, Xiaoman Pan, Dian Yu, Kaiqiang Song, Xiaoyang Wang, Dong Yu, Jianshu Chen
cs.AI
초록
우리는 새로운 유형의 프롬프팅 전략을 통해 대규모 언어 모델(LLM)의 조합적 일반화 능력을 이끌어내는 문제를 고려합니다. 조합적 일반화는 LLM이 이전에 접한 문제보다 더 어려운 문제를 해결할 수 있도록 하는 능력으로, 인간과 유사한 지능의 중요한 추론 능력입니다. 그러나 현재 최첨단 LLM조차도 이러한 형태의 추론에 어려움을 겪고 있습니다. 이러한 격차를 해소하기 위해, 우리는 기본 기술을 조합하여 더 복잡한 문제를 해결하는 방법을 LLM에 지시하는 기술-컨텍스트 내 프롬프팅(SKiC)을 제안합니다. 우리는 동일한 프롬프팅 컨텍스트 내에서 기술과 조합 예시를 모두 보여주는 것이 중요하다는 것을 발견했습니다. 단 두 개의 예시만으로도, SKiC 프롬프팅은 기술과 그 조합 능력 사이에 강력한 시너지를 일으킵니다. 특히, 이는 혁신적인 기술 조합이 필요한 새로운 문제를 해결할 수 있도록 LLM을 강화하며, 다양한 도전적인 조합성 작업에서 거의 완벽한 일반화를 달성합니다. 흥미롭게도, SKiC 프롬프팅은 LLM의 잠재력을 해제하여, 이전 사전 학습 단계에서 획득한 내부 기술을 프롬프팅 컨텍스트에서 명시적으로 제시되지 않았더라도 활용할 수 있게 합니다. 이는 LLM이 내부 역량을 활성화하고 조합함으로써 보지 못한 복잡한 문제를 해결할 수 있는 능력으로 이어집니다. 이러한 두드러진 특징 덕분에, SKiC 프롬프팅은 도전적인 수학적 추론 벤치마크(예: MATH)에서 최첨단 성능을 달성할 수 있습니다.
English
We consider the problem of eliciting compositional generalization
capabilities in large language models (LLMs) with a novel type of prompting
strategy. Compositional generalization empowers the LLMs to solve problems that
are harder than the ones they have seen (i.e., easy-to-hard generalization),
which is a critical reasoning capability of human-like intelligence. However,
even the current state-of-the-art LLMs still struggle with this form of
reasoning. To bridge this gap, we propose skills-in-context (SKiC) prompting,
which instructs LLMs how to compose basic skills to resolve more complex
problems. We find that it is crucial to demonstrate both the skills and the
compositional examples within the same prompting context. With as few as two
examplars, our SKiC prompting initiates strong synergies between skills and
their composition capabilities. Notably, it empowers LLMs to solve unseen
problems that require innovative skill compositions, achieving near-perfect
generalization on a broad range of challenging compositionality tasks.
Intriguingly, SKiC prompting unlocks the latent potential of LLMs, enabling
them to leverage pre-existing internal skills acquired during earlier
pre-training stages, even when these skills are not explicitly presented in the
prompting context. This results in the capability of LLMs to solve unseen
complex problems by activating and composing internal competencies. With such
prominent features, SKiC prompting is able to achieve state-of-the-art
performance on challenging mathematical reasoning benchmarks (e.g., MATH).