ChatPaper.aiChatPaper

TextGenSHAP: Explicaciones post-hoc escalables en generación de texto con documentos extensos

TextGenSHAP: Scalable Post-hoc Explanations in Text Generation with Long Documents

December 3, 2023
Autores: James Enouen, Hootan Nakhost, Sayna Ebrahimi, Sercan O Arik, Yan Liu, Tomas Pfister
cs.AI

Resumen

Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han atraído un enorme interés en aplicaciones prácticas debido a sus respuestas cada vez más precisas y sus capacidades de razonamiento coherente. Dada su naturaleza como cajas negras que utilizan procesos de razonamiento complejos sobre sus entradas, es inevitable que la demanda de explicaciones escalables y fieles para el contenido generado por los LLMs continúe creciendo. Ha habido avances significativos en la explicabilidad de los modelos de redes neuronales durante la última década. Entre ellos, los métodos de explicabilidad post-hoc, especialmente los valores de Shapley, han demostrado ser efectivos para interpretar modelos de aprendizaje profundo. Sin embargo, existen grandes desafíos al escalar los valores de Shapley para los LLMs, particularmente al tratar con contextos de entrada largos que contienen miles de tokens y secuencias de salida generadas de manera autoregresiva. Además, a menudo no está claro cómo utilizar de manera efectiva las explicaciones generadas para mejorar el rendimiento de los LLMs. En este artículo, presentamos TextGenSHAP, un método de explicación post-hoc eficiente que incorpora técnicas específicas para modelos de lenguaje. Demostramos que esto conduce a aumentos significativos en la velocidad en comparación con los cálculos convencionales de valores de Shapley, reduciendo los tiempos de procesamiento de horas a minutos para explicaciones a nivel de token, y a solo segundos para explicaciones a nivel de documento. Además, demostramos cómo los valores de Shapley en tiempo real pueden utilizarse en dos escenarios importantes: proporcionando una mejor comprensión de la respuesta a preguntas en documentos largos mediante la localización de palabras y oraciones importantes; y mejorando los sistemas existentes de recuperación de documentos al aumentar la precisión de los pasajes seleccionados y, en última instancia, las respuestas finales.
English
Large language models (LLMs) have attracted huge interest in practical applications given their increasingly accurate responses and coherent reasoning abilities. Given their nature as black-boxes using complex reasoning processes on their inputs, it is inevitable that the demand for scalable and faithful explanations for LLMs' generated content will continue to grow. There have been major developments in the explainability of neural network models over the past decade. Among them, post-hoc explainability methods, especially Shapley values, have proven effective for interpreting deep learning models. However, there are major challenges in scaling up Shapley values for LLMs, particularly when dealing with long input contexts containing thousands of tokens and autoregressively generated output sequences. Furthermore, it is often unclear how to effectively utilize generated explanations to improve the performance of LLMs. In this paper, we introduce TextGenSHAP, an efficient post-hoc explanation method incorporating LM-specific techniques. We demonstrate that this leads to significant increases in speed compared to conventional Shapley value computations, reducing processing times from hours to minutes for token-level explanations, and to just seconds for document-level explanations. In addition, we demonstrate how real-time Shapley values can be utilized in two important scenarios, providing better understanding of long-document question answering by localizing important words and sentences; and improving existing document retrieval systems through enhancing the accuracy of selected passages and ultimately the final responses.
PDF61December 15, 2024