QQSUM: Uma Nova Tarefa e Modelo de Sumarização Quantitativa Centrada em Consultas para Respostas a Perguntas sobre Produtos Baseadas em Avaliações
QQSUM: A Novel Task and Model of Quantitative Query-Focused Summarization for Review-based Product Question Answering
June 4, 2025
Autores: An Quang Tang, Xiuzhen Zhang, Minh Ngoc Dinh, Zhuang Li
cs.AI
Resumo
A Resposta a Perguntas sobre Produtos Baseada em Análises (PQA) permite que plataformas de comércio eletrônico respondam automaticamente às consultas dos clientes, aproveitando insights de avaliações de usuários. No entanto, os sistemas PQA existentes geram respostas com apenas uma única perspectiva, falhando em capturar a diversidade de opiniões dos clientes. Neste artigo, introduzimos uma nova tarefa chamada Sumarização Quantitativa Focada em Consultas (QQSUM), que visa resumir diversas opiniões de clientes em Pontos-Chave (KPs) representativos e quantificar sua prevalência para responder efetivamente às consultas dos usuários. Embora a Geração Aumentada por Recuperação (RAG) mostre potencial para PQA, as respostas geradas ainda não conseguem capturar a total diversidade de pontos de vista. Para enfrentar esse desafio, nosso modelo QQSUM-RAG, que estende o RAG, emprega aprendizado de poucos exemplos para treinar conjuntamente um recuperador orientado a KPs e um gerador de resumos de KPs, permitindo resumos baseados em KPs que capturam opiniões diversas e representativas. Resultados experimentais demonstram que o QQSUM-RAG alcança desempenho superior em comparação com as bases de RAG state-of-the-art, tanto em qualidade textual quanto na precisão da quantificação de opiniões. Nosso código-fonte está disponível em: https://github.com/antangrocket1312/QQSUMM
English
Review-based Product Question Answering (PQA) allows e-commerce platforms to
automatically address customer queries by leveraging insights from user
reviews. However, existing PQA systems generate answers with only a single
perspective, failing to capture the diversity of customer opinions. In this
paper we introduce a novel task Quantitative Query-Focused Summarization
(QQSUM), which aims to summarize diverse customer opinions into representative
Key Points (KPs) and quantify their prevalence to effectively answer user
queries. While Retrieval-Augmented Generation (RAG) shows promise for PQA, its
generated answers still fall short of capturing the full diversity of
viewpoints. To tackle this challenge, our model QQSUM-RAG, which extends RAG,
employs few-shot learning to jointly train a KP-oriented retriever and a KP
summary generator, enabling KP-based summaries that capture diverse and
representative opinions. Experimental results demonstrate that QQSUM-RAG
achieves superior performance compared to state-of-the-art RAG baselines in
both textual quality and quantification accuracy of opinions. Our source code
is available at: https://github.com/antangrocket1312/QQSUMM