ChatPaper.aiChatPaper

La scomposizione delle domande migliora la fedeltà del ragionamento generato dai modelli

Question Decomposition Improves the Faithfulness of Model-Generated Reasoning

July 17, 2023
Autori: Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez
cs.AI

Abstract

Man mano che i modelli linguistici di grandi dimensioni (LLM) eseguono compiti più complessi, diventa più difficile verificare la correttezza e la sicurezza del loro comportamento. Un approccio per affrontare questo problema consiste nel sollecitare gli LLM a esternalizzare il loro ragionamento, ad esempio facendo in modo che generino un ragionamento passo-passo mentre rispondono a una domanda (Chain-of-Thought; CoT). Questo ragionamento potrebbe permetterci di verificare il processo che i modelli utilizzano per eseguire i compiti. Tuttavia, questo approccio si basa sul presupposto che il ragionamento dichiarato rifletta fedelmente il ragionamento effettivo del modello, il che non è sempre vero. Per migliorare la fedeltà del ragionamento CoT, facciamo in modo che i modelli generino il ragionamento scomponendo le domande in sottodomande. I metodi basati sulla scomposizione ottengono prestazioni solide nei compiti di risposta alle domande, a volte avvicinandosi a quelle del CoT, migliorando al contempo la fedeltà del ragionamento dichiarato dal modello secondo diverse metriche proposte di recente. Forzando il modello a rispondere a sottodomande più semplici in contesti separati, aumentiamo notevolmente la fedeltà del ragionamento generato dal modello rispetto al CoT, pur ottenendo alcuni dei vantaggi prestazionali del CoT. I nostri risultati dimostrano che è possibile migliorare la fedeltà del ragionamento generato dai modelli; ulteriori miglioramenti potrebbero portare a un ragionamento che ci permetta di verificare la correttezza e la sicurezza del comportamento degli LLM.
English
As large language models (LLMs) perform more difficult tasks, it becomes harder to verify the correctness and safety of their behavior. One approach to help with this issue is to prompt LLMs to externalize their reasoning, e.g., by having them generate step-by-step reasoning as they answer a question (Chain-of-Thought; CoT). The reasoning may enable us to check the process that models use to perform tasks. However, this approach relies on the stated reasoning faithfully reflecting the model's actual reasoning, which is not always the case. To improve over the faithfulness of CoT reasoning, we have models generate reasoning by decomposing questions into subquestions. Decomposition-based methods achieve strong performance on question-answering tasks, sometimes approaching that of CoT while improving the faithfulness of the model's stated reasoning on several recently-proposed metrics. By forcing the model to answer simpler subquestions in separate contexts, we greatly increase the faithfulness of model-generated reasoning over CoT, while still achieving some of the performance gains of CoT. Our results show it is possible to improve the faithfulness of model-generated reasoning; continued improvements may lead to reasoning that enables us to verify the correctness and safety of LLM behavior.
PDF130December 15, 2024