ChatPaper.aiChatPaper

Explorando enfoques de reescritura para diferentes tareas conversacionales

Exploring Rewriting Approaches for Different Conversational Tasks

February 26, 2025
Autores: Md Mehrab Tanjim, Ryan A. Rossi, Mike Rimer, Xiang Chen, Sungchul Kim, Vaishnavi Muppala, Tong Yu, Zhengmian Hu, Ritwik Sinha, Wei Zhang, Iftikhar Ahamath Burhanuddin, Franck Dernoncourt
cs.AI

Resumen

Los asistentes conversacionales suelen requerir un algoritmo de reescritura de preguntas que aproveche un subconjunto de interacciones pasadas para proporcionar una respuesta más significativa (precisa) a la pregunta o solicitud del usuario. Sin embargo, el enfoque exacto de reescritura puede depender a menudo del caso de uso y de las tareas específicas de la aplicación que soporta el asistente conversacional, entre otras limitaciones. En este artículo, investigamos sistemáticamente dos enfoques diferentes, denominados reescritura y fusión, en dos tareas de generación fundamentalmente distintas, incluyendo una tarea de generación texto-a-texto y una tarea generativa multimodal que toma como entrada texto y genera una visualización o tabla de datos que responde a la pregunta del usuario. Nuestros resultados indican que el enfoque específico de reescritura o fusión depende en gran medida del caso de uso subyacente y de la tarea generativa. En particular, encontramos que para un asistente de preguntas y respuestas conversacional, el enfoque de reescritura de consultas funciona mejor, mientras que para un asistente de análisis de datos que genera visualizaciones y tablas de datos basadas en la conversación del usuario con el asistente, el enfoque de fusión es el más efectivo. Cabe destacar que exploramos dos conjuntos de datos para el caso de uso del asistente de análisis de datos, para conversaciones cortas y largas, y encontramos que la fusión de consultas siempre funciona mejor, mientras que para la tarea de preguntas y respuestas basadas en texto conversacional, el enfoque de reescritura de consultas es el más adecuado.
English
Conversational assistants often require a question rewriting algorithm that leverages a subset of past interactions to provide a more meaningful (accurate) answer to the user's question or request. However, the exact rewriting approach may often depend on the use case and application-specific tasks supported by the conversational assistant, among other constraints. In this paper, we systematically investigate two different approaches, denoted as rewriting and fusion, on two fundamentally different generation tasks, including a text-to-text generation task and a multimodal generative task that takes as input text and generates a visualization or data table that answers the user's question. Our results indicate that the specific rewriting or fusion approach highly depends on the underlying use case and generative task. In particular, we find that for a conversational question-answering assistant, the query rewriting approach performs best, whereas for a data analysis assistant that generates visualizations and data tables based on the user's conversation with the assistant, the fusion approach works best. Notably, we explore two datasets for the data analysis assistant use case, for short and long conversations, and we find that query fusion always performs better, whereas for the conversational text-based question-answering, the query rewrite approach performs best.
PDF63March 6, 2025