I grandi modelli linguistici non sono ancora in grado di autocorreggere il ragionamento.
Large Language Models Cannot Self-Correct Reasoning Yet
October 3, 2023
Autori: Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) sono emersi come una tecnologia rivoluzionaria grazie alle loro capacità senza pari nella generazione di testi in varie applicazioni. Tuttavia, permangono preoccupazioni riguardo all'accuratezza e all'appropriatezza dei contenuti da essi generati. Una metodologia contemporanea, l'autocorrezione, è stata proposta come rimedio a questi problemi. Partendo da questa premessa, questo articolo esamina in modo critico il ruolo e l'efficacia dell'autocorrezione all'interno degli LLM, gettando luce sul suo vero potenziale e sui suoi limiti. Al centro della nostra indagine vi è il concetto di autocorrezione intrinseca, in cui un LLM tenta di correggere le proprie risposte iniziali basandosi esclusivamente sulle sue capacità intrinseche, senza il supporto di feedback esterni. Nel contesto del ragionamento, la nostra ricerca indica che gli LLM faticano a correggere autonomamente le proprie risposte senza feedback esterni e, in alcuni casi, le loro prestazioni potrebbero persino peggiorare dopo l'autocorrezione. Sulla base di queste osservazioni, offriamo suggerimenti per future ricerche e applicazioni pratiche in questo campo.
English
Large Language Models (LLMs) have emerged as a groundbreaking technology with
their unparalleled text generation capabilities across various applications.
Nevertheless, concerns persist regarding the accuracy and appropriateness of
their generated content. A contemporary methodology, self-correction, has been
proposed as a remedy to these issues. Building upon this premise, this paper
critically examines the role and efficacy of self-correction within LLMs,
shedding light on its true potential and limitations. Central to our
investigation is the notion of intrinsic self-correction, whereby an LLM
attempts to correct its initial responses based solely on its inherent
capabilities, without the crutch of external feedback. In the context of
reasoning, our research indicates that LLMs struggle to self-correct their
responses without external feedback, and at times, their performance might even
degrade post self-correction. Drawing from these insights, we offer suggestions
for future research and practical applications in this field.