QQSUM: Una Tarea y Modelo Novedosos de Resumen Cuantitativo Centrado en Consultas para la Respuesta a Preguntas sobre Productos Basada en Reseñas
QQSUM: A Novel Task and Model of Quantitative Query-Focused Summarization for Review-based Product Question Answering
June 4, 2025
Autores: An Quang Tang, Xiuzhen Zhang, Minh Ngoc Dinh, Zhuang Li
cs.AI
Resumen
La Respuesta a Preguntas sobre Productos basada en Reseñas (PQA, por sus siglas en inglés) permite a las plataformas de comercio electrónico abordar automáticamente las consultas de los clientes aprovechando los conocimientos extraídos de las reseñas de usuarios. Sin embargo, los sistemas PQA existentes generan respuestas con una sola perspectiva, sin capturar la diversidad de opiniones de los clientes. En este artículo, presentamos una nueva tarea denominada Resumen Cuantitativo Enfocado en Consultas (QQSUM), cuyo objetivo es resumir las diversas opiniones de los clientes en Puntos Clave (KPs, por sus siglas en inglés) representativos y cuantificar su prevalencia para responder eficazmente a las consultas de los usuarios. Aunque la Generación Aumentada con Recuperación (RAG, por sus siglas en inglés) muestra potencial para PQA, las respuestas generadas aún no logran capturar la diversidad completa de puntos de vista. Para abordar este desafío, nuestro modelo QQSUM-RAG, que extiende RAG, emplea aprendizaje con pocos ejemplos para entrenar conjuntamente un recuperador orientado a KPs y un generador de resúmenes de KPs, lo que permite resúmenes basados en KPs que capturan opiniones diversas y representativas. Los resultados experimentales demuestran que QQSUM-RAG logra un rendimiento superior en comparación con los modelos RAG de última generación, tanto en la calidad textual como en la precisión de la cuantificación de opiniones. Nuestro código fuente está disponible en: https://github.com/antangrocket1312/QQSUMM.
English
Review-based Product Question Answering (PQA) allows e-commerce platforms to
automatically address customer queries by leveraging insights from user
reviews. However, existing PQA systems generate answers with only a single
perspective, failing to capture the diversity of customer opinions. In this
paper we introduce a novel task Quantitative Query-Focused Summarization
(QQSUM), which aims to summarize diverse customer opinions into representative
Key Points (KPs) and quantify their prevalence to effectively answer user
queries. While Retrieval-Augmented Generation (RAG) shows promise for PQA, its
generated answers still fall short of capturing the full diversity of
viewpoints. To tackle this challenge, our model QQSUM-RAG, which extends RAG,
employs few-shot learning to jointly train a KP-oriented retriever and a KP
summary generator, enabling KP-based summaries that capture diverse and
representative opinions. Experimental results demonstrate that QQSUM-RAG
achieves superior performance compared to state-of-the-art RAG baselines in
both textual quality and quantification accuracy of opinions. Our source code
is available at: https://github.com/antangrocket1312/QQSUMM