ChatPaper.aiChatPaper

La décomposition des questions améliore la fidélité du raisonnement généré par les modèles

Question Decomposition Improves the Faithfulness of Model-Generated Reasoning

July 17, 2023
Auteurs: Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez
cs.AI

Résumé

Alors que les grands modèles de langage (LLM) accomplissent des tâches de plus en plus complexes, il devient plus difficile de vérifier l'exactitude et la sécurité de leur comportement. Une approche pour résoudre ce problème consiste à inciter les LLM à externaliser leur raisonnement, par exemple en leur faisant générer un raisonnement étape par étape lorsqu'ils répondent à une question (Chaîne de Pensée ; CoT). Ce raisonnement peut nous permettre de vérifier le processus que les modèles utilisent pour accomplir des tâches. Cependant, cette approche repose sur l'hypothèse que le raisonnement exprimé reflète fidèlement le raisonnement réel du modèle, ce qui n'est pas toujours le cas. Pour améliorer la fidélité du raisonnement CoT, nous faisons en sorte que les modèles génèrent un raisonnement en décomposant les questions en sous-questions. Les méthodes basées sur la décomposition obtiennent de solides performances sur les tâches de question-réponse, approchant parfois celles de la CoT tout en améliorant la fidélité du raisonnement exprimé par le modèle selon plusieurs métriques récemment proposées. En forçant le modèle à répondre à des sous-questions plus simples dans des contextes distincts, nous augmentons considérablement la fidélité du raisonnement généré par le modèle par rapport à la CoT, tout en conservant une partie des gains de performance de la CoT. Nos résultats montrent qu'il est possible d'améliorer la fidélité du raisonnement généré par les modèles ; des améliorations continues pourraient conduire à un raisonnement qui nous permette de vérifier l'exactitude et la sécurité du comportement des LLM.
English
As large language models (LLMs) perform more difficult tasks, it becomes harder to verify the correctness and safety of their behavior. One approach to help with this issue is to prompt LLMs to externalize their reasoning, e.g., by having them generate step-by-step reasoning as they answer a question (Chain-of-Thought; CoT). The reasoning may enable us to check the process that models use to perform tasks. However, this approach relies on the stated reasoning faithfully reflecting the model's actual reasoning, which is not always the case. To improve over the faithfulness of CoT reasoning, we have models generate reasoning by decomposing questions into subquestions. Decomposition-based methods achieve strong performance on question-answering tasks, sometimes approaching that of CoT while improving the faithfulness of the model's stated reasoning on several recently-proposed metrics. By forcing the model to answer simpler subquestions in separate contexts, we greatly increase the faithfulness of model-generated reasoning over CoT, while still achieving some of the performance gains of CoT. Our results show it is possible to improve the faithfulness of model-generated reasoning; continued improvements may lead to reasoning that enables us to verify the correctness and safety of LLM behavior.
PDF130December 15, 2024