ChatPaper.aiChatPaper

Tekstsamenvatting met behulp van Multi-LLM

Multi-LLM Text Summarization

December 20, 2024
Auteurs: Jiangnan Fang, Cheng-Tse Liu, Jieun Kim, Yash Bhedaru, Ethan Liu, Nikhil Singh, Nedim Lipka, Puneet Mathur, Nesreen K. Ahmed, Franck Dernoncourt, Ryan A. Rossi, Hanieh Deilamsalehy
cs.AI

Samenvatting

In dit werk stellen we een Multi-LLM samenvattingskader voor en onderzoeken we twee verschillende multi-LLM strategieën, namelijk gecentraliseerd en gedecentraliseerd. Ons multi-LLM samenvattingskader heeft twee fundamenteel belangrijke stappen bij elke ronde van het gesprek: generatie en evaluatie. Deze stappen verschillen afhankelijk van het gebruik van onze multi-LLM gedecentraliseerde samenvatting of gecentraliseerde samenvatting. In zowel onze multi-LLM gedecentraliseerde als gecentraliseerde strategieën hebben we k verschillende LLMs die diverse samenvattingen van de tekst genereren. Echter, tijdens de evaluatie maakt onze multi-LLM gecentraliseerde samenvattingsbenadering gebruik van een enkele LLM om de samenvattingen te evalueren en de beste te selecteren, terwijl k LLMs worden gebruikt voor gedecentraliseerde multi-LLM samenvatting. Over het algemeen blijkt dat onze multi-LLM samenvattingsbenaderingen aanzienlijk beter presteren dan de baselines die slechts één LLM gebruiken, tot wel 3x. Deze resultaten duiden op de effectiviteit van multi-LLM benaderingen voor samenvattingen.
English
In this work, we propose a Multi-LLM summarization framework, and investigate two different multi-LLM strategies including centralized and decentralized. Our multi-LLM summarization framework has two fundamentally important steps at each round of conversation: generation and evaluation. These steps are different depending on whether our multi-LLM decentralized summarization is used or centralized. In both our multi-LLM decentralized and centralized strategies, we have k different LLMs that generate diverse summaries of the text. However, during evaluation, our multi-LLM centralized summarization approach leverages a single LLM to evaluate the summaries and select the best one whereas k LLMs are used for decentralized multi-LLM summarization. Overall, we find that our multi-LLM summarization approaches significantly outperform the baselines that leverage only a single LLM by up to 3x. These results indicate the effectiveness of multi-LLM approaches for summarization.
PDF62December 23, 2024