ChatPaper.aiChatPaper

Multi-LLM Textzusammenfassung

Multi-LLM Text Summarization

December 20, 2024
Autoren: Jiangnan Fang, Cheng-Tse Liu, Jieun Kim, Yash Bhedaru, Ethan Liu, Nikhil Singh, Nedim Lipka, Puneet Mathur, Nesreen K. Ahmed, Franck Dernoncourt, Ryan A. Rossi, Hanieh Deilamsalehy
cs.AI

Zusammenfassung

In dieser Arbeit schlagen wir ein Multi-LLM Zusammenfassungsrahmen vor und untersuchen zwei verschiedene Multi-LLM-Strategien, einschließlich zentralisierter und dezentralisierter Ansätze. Unser Multi-LLM Zusammenfassungsrahmen umfasst zwei grundlegend wichtige Schritte in jeder Runde des Gesprächs: Generierung und Bewertung. Diese Schritte unterscheiden sich je nachdem, ob unsere Multi-LLM dezentralisierte oder zentralisierte Zusammenfassung verwendet wird. In beiden Strategien, sowohl der Multi-LLM dezentralisierten als auch der zentralisierten, haben wir k verschiedene LLMs, die vielfältige Zusammenfassungen des Textes generieren. Während der Bewertung nutzt unser Multi-LLM zentralisierter Zusammenfassungsansatz jedoch einen einzigen LLM zur Bewertung der Zusammenfassungen und Auswahl der besten, während k LLMs für die dezentralisierte Multi-LLM-Zusammenfassung verwendet werden. Insgesamt stellen wir fest, dass unsere Multi-LLM-Zusammenfassungsansätze die Baselines, die nur einen einzigen LLM verwenden, signifikant um bis zu 3x übertreffen. Diese Ergebnisse deuten auf die Wirksamkeit von Multi-LLM-Ansätzen für die Zusammenfassung hin.
English
In this work, we propose a Multi-LLM summarization framework, and investigate two different multi-LLM strategies including centralized and decentralized. Our multi-LLM summarization framework has two fundamentally important steps at each round of conversation: generation and evaluation. These steps are different depending on whether our multi-LLM decentralized summarization is used or centralized. In both our multi-LLM decentralized and centralized strategies, we have k different LLMs that generate diverse summaries of the text. However, during evaluation, our multi-LLM centralized summarization approach leverages a single LLM to evaluate the summaries and select the best one whereas k LLMs are used for decentralized multi-LLM summarization. Overall, we find that our multi-LLM summarization approaches significantly outperform the baselines that leverage only a single LLM by up to 3x. These results indicate the effectiveness of multi-LLM approaches for summarization.

Summary

AI-Generated Summary

PDF62December 23, 2024