Große Sprachmodelle können das eigenständige Korrigieren von Schlussfolgerungen noch nicht bewerkstelligen.
Large Language Models Cannot Self-Correct Reasoning Yet
October 3, 2023
papers.authors: Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou
cs.AI
papers.abstract
Große Sprachmodelle (LLMs) haben sich als bahnbrechende Technologie mit ihren beispiellosen Textgenerierungsfähigkeiten in verschiedenen Anwendungen etabliert. Dennoch bestehen Bedenken hinsichtlich der Genauigkeit und Angemessenheit ihrer generierten Inhalte. Eine zeitgenössische Methodik, die Selbstkorrektur, wurde als Abhilfe für diese Probleme vorgeschlagen. Auf dieser Grundlage aufbauend untersucht dieses Papier kritisch die Rolle und Wirksamkeit der Selbstkorrektur innerhalb von LLMs und beleuchtet ihr wahres Potenzial und ihre Grenzen. Kern unserer Untersuchung ist das Konzept der intrinsischen Selbstkorrektur, bei der ein LLM versucht, seine initialen Antworten ausschließlich auf der Grundlage seiner inhärenten Fähigkeiten zu korrigieren, ohne den Rückgriff auf externes Feedback. Im Kontext des logischen Schließens zeigt unsere Forschung, dass LLMs Schwierigkeiten haben, ihre Antworten ohne externes Feedback selbst zu korrigieren, und dass ihre Leistung manchmal sogar nach der Selbstkorrektur abnimmt. Aus diesen Erkenntnissen leiten wir Vorschläge für zukünftige Forschung und praktische Anwendungen in diesem Bereich ab.
English
Large Language Models (LLMs) have emerged as a groundbreaking technology with
their unparalleled text generation capabilities across various applications.
Nevertheless, concerns persist regarding the accuracy and appropriateness of
their generated content. A contemporary methodology, self-correction, has been
proposed as a remedy to these issues. Building upon this premise, this paper
critically examines the role and efficacy of self-correction within LLMs,
shedding light on its true potential and limitations. Central to our
investigation is the notion of intrinsic self-correction, whereby an LLM
attempts to correct its initial responses based solely on its inherent
capabilities, without the crutch of external feedback. In the context of
reasoning, our research indicates that LLMs struggle to self-correct their
responses without external feedback, and at times, their performance might even
degrade post self-correction. Drawing from these insights, we offer suggestions
for future research and practical applications in this field.