ChatPaper.aiChatPaper

A Decomposição de Perguntas Melhora a Fidelidade do Raciocínio Gerado por Modelos

Question Decomposition Improves the Faithfulness of Model-Generated Reasoning

July 17, 2023
Autores: Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez
cs.AI

Resumo

À medida que os modelos de linguagem de grande escala (LLMs) realizam tarefas mais complexas, torna-se mais difícil verificar a correção e a segurança de seu comportamento. Uma abordagem para ajudar com esse problema é solicitar que os LLMs externalizem seu raciocínio, por exemplo, fazendo com que gerem um raciocínio passo a passo ao responderem uma pergunta (Chain-of-Thought; CoT). Esse raciocínio pode nos permitir verificar o processo que os modelos usam para realizar tarefas. No entanto, essa abordagem depende de o raciocínio declarado refletir fielmente o raciocínio real do modelo, o que nem sempre é o caso. Para melhorar a fidelidade do raciocínio CoT, fazemos com que os modelos gerem raciocínios decompondo perguntas em subperguntas. Métodos baseados em decomposição alcançam um desempenho forte em tarefas de resposta a perguntas, às vezes se aproximando do CoT, enquanto melhoram a fidelidade do raciocínio declarado do modelo em várias métricas recentemente propostas. Ao forçar o modelo a responder subperguntas mais simples em contextos separados, aumentamos significativamente a fidelidade do raciocínio gerado pelo modelo em relação ao CoT, ao mesmo tempo em que mantemos parte dos ganhos de desempenho do CoT. Nossos resultados mostram que é possível melhorar a fidelidade do raciocínio gerado por modelos; melhorias contínuas podem levar a raciocínios que nos permitam verificar a correção e a segurança do comportamento dos LLMs.
English
As large language models (LLMs) perform more difficult tasks, it becomes harder to verify the correctness and safety of their behavior. One approach to help with this issue is to prompt LLMs to externalize their reasoning, e.g., by having them generate step-by-step reasoning as they answer a question (Chain-of-Thought; CoT). The reasoning may enable us to check the process that models use to perform tasks. However, this approach relies on the stated reasoning faithfully reflecting the model's actual reasoning, which is not always the case. To improve over the faithfulness of CoT reasoning, we have models generate reasoning by decomposing questions into subquestions. Decomposition-based methods achieve strong performance on question-answering tasks, sometimes approaching that of CoT while improving the faithfulness of the model's stated reasoning on several recently-proposed metrics. By forcing the model to answer simpler subquestions in separate contexts, we greatly increase the faithfulness of model-generated reasoning over CoT, while still achieving some of the performance gains of CoT. Our results show it is possible to improve the faithfulness of model-generated reasoning; continued improvements may lead to reasoning that enables us to verify the correctness and safety of LLM behavior.
PDF130December 15, 2024