ChatPaper.aiChatPaper

La descomposición de preguntas mejora la fidelidad del razonamiento generado por modelos

Question Decomposition Improves the Faithfulness of Model-Generated Reasoning

July 17, 2023
Autores: Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez
cs.AI

Resumen

A medida que los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) realizan tareas más complejas, se vuelve más difícil verificar la corrección y seguridad de su comportamiento. Un enfoque para abordar este problema es solicitar a los LLMs que externalicen su razonamiento, por ejemplo, pidiéndoles que generen un razonamiento paso a paso mientras responden una pregunta (Cadena de Pensamiento; CoT, por sus siglas en inglés). Este razonamiento podría permitirnos verificar el proceso que los modelos utilizan para realizar tareas. Sin embargo, este enfoque depende de que el razonamiento declarado refleje fielmente el razonamiento real del modelo, lo cual no siempre ocurre. Para mejorar la fidelidad del razonamiento CoT, hacemos que los modelos generen razonamiento descomponiendo las preguntas en subpreguntas. Los métodos basados en descomposición logran un rendimiento sólido en tareas de respuesta a preguntas, a veces acercándose al de CoT mientras mejoran la fidelidad del razonamiento declarado del modelo según varias métricas propuestas recientemente. Al obligar al modelo a responder subpreguntas más simples en contextos separados, aumentamos significativamente la fidelidad del razonamiento generado por el modelo en comparación con CoT, al mismo tiempo que conservamos parte de las mejoras de rendimiento de CoT. Nuestros resultados muestran que es posible mejorar la fidelidad del razonamiento generado por los modelos; continuas mejoras podrían llevar a un razonamiento que nos permita verificar la corrección y seguridad del comportamiento de los LLMs.
English
As large language models (LLMs) perform more difficult tasks, it becomes harder to verify the correctness and safety of their behavior. One approach to help with this issue is to prompt LLMs to externalize their reasoning, e.g., by having them generate step-by-step reasoning as they answer a question (Chain-of-Thought; CoT). The reasoning may enable us to check the process that models use to perform tasks. However, this approach relies on the stated reasoning faithfully reflecting the model's actual reasoning, which is not always the case. To improve over the faithfulness of CoT reasoning, we have models generate reasoning by decomposing questions into subquestions. Decomposition-based methods achieve strong performance on question-answering tasks, sometimes approaching that of CoT while improving the faithfulness of the model's stated reasoning on several recently-proposed metrics. By forcing the model to answer simpler subquestions in separate contexts, we greatly increase the faithfulness of model-generated reasoning over CoT, while still achieving some of the performance gains of CoT. Our results show it is possible to improve the faithfulness of model-generated reasoning; continued improvements may lead to reasoning that enables us to verify the correctness and safety of LLM behavior.
PDF130December 15, 2024