QQSUM : Une nouvelle tâche et un modèle de synthèse quantitative centrée sur la requête pour les systèmes de questions-réponses basés sur les avis produits
QQSUM: A Novel Task and Model of Quantitative Query-Focused Summarization for Review-based Product Question Answering
June 4, 2025
Auteurs: An Quang Tang, Xiuzhen Zhang, Minh Ngoc Dinh, Zhuang Li
cs.AI
Résumé
Le système de Réponse aux Questions sur les Produits basé sur les Avis (PQA) permet aux plateformes de commerce électronique de répondre automatiquement aux requêtes des clients en exploitant les informations issues des avis utilisateurs. Cependant, les systèmes PQA existants génèrent des réponses présentant une perspective unique, ne parvenant pas à capturer la diversité des opinions des clients. Dans cet article, nous introduisons une nouvelle tâche appelée Synthèse Quantitative Centrée sur la Requête (QQSUM), qui vise à résumer les diverses opinions des clients en Points Clés (KPs) représentatifs et à quantifier leur prévalence pour répondre efficacement aux questions des utilisateurs. Bien que la Génération Augmentée par Récupération (RAG) montre des promesses pour le PQA, les réponses générées ne parviennent toujours pas à capturer toute la diversité des points de vue. Pour relever ce défi, notre modèle QQSUM-RAG, qui étend RAG, utilise l'apprentissage en few-shot pour entraîner conjointement un récupérateur orienté KPs et un générateur de résumés KPs, permettant ainsi des synthèses basées sur les KPs qui capturent des opinions diverses et représentatives. Les résultats expérimentaux démontrent que QQSUM-RAG obtient des performances supérieures par rapport aux modèles de référence RAG de pointe, tant en termes de qualité textuelle que de précision dans la quantification des opinions. Notre code source est disponible à l'adresse suivante : https://github.com/antangrocket1312/QQSUMM
English
Review-based Product Question Answering (PQA) allows e-commerce platforms to
automatically address customer queries by leveraging insights from user
reviews. However, existing PQA systems generate answers with only a single
perspective, failing to capture the diversity of customer opinions. In this
paper we introduce a novel task Quantitative Query-Focused Summarization
(QQSUM), which aims to summarize diverse customer opinions into representative
Key Points (KPs) and quantify their prevalence to effectively answer user
queries. While Retrieval-Augmented Generation (RAG) shows promise for PQA, its
generated answers still fall short of capturing the full diversity of
viewpoints. To tackle this challenge, our model QQSUM-RAG, which extends RAG,
employs few-shot learning to jointly train a KP-oriented retriever and a KP
summary generator, enabling KP-based summaries that capture diverse and
representative opinions. Experimental results demonstrate that QQSUM-RAG
achieves superior performance compared to state-of-the-art RAG baselines in
both textual quality and quantification accuracy of opinions. Our source code
is available at: https://github.com/antangrocket1312/QQSUMM