ChatPaper.aiChatPaper

Friends-MMC: Een Dataset voor het Begrijpen van Multi-modale Multi-partij Gesprekken

Friends-MMC: A Dataset for Multi-modal Multi-party Conversation Understanding

December 23, 2024
Auteurs: Yueqian Wang, Xiaojun Meng, Yuxuan Wang, Jianxin Liang, Qun Liu, Dongyan Zhao
cs.AI

Samenvatting

Multi-modale multi-partijen gesprekken (MMC) is een minder bestudeerd maar belangrijk onderzoeksgebied omdat het goed aansluit bij realistische scenario's en daardoor mogelijk bredere toepassingen heeft. Vergeleken met de traditionele multi-modale gesprekken vereist MMC sterkere karaktergerichte begripsvaardigheden, aangezien er veel gesprekspartners verschijnen in zowel de visuele als tekstuele context. Om de studie van dit probleem te vergemakkelijken, presenteren we in dit artikel Friends-MMC, een MMC-dataset die meer dan 24.000 unieke uitingen bevat, gekoppeld aan videobeelden. Om het karaktergerichte begrip van de dialoog te verkennen, annoteren we ook de spreker van elke uiting, de namen en begrenzingskaders van gezichten die in de video verschijnen. Op basis van deze Friends-MMC dataset bestuderen we verder twee fundamentele MMC-taken: identificatie van gesprekssprekers en voorspelling van gespreksreacties, beide met een multi-partijen karakter met de video of afbeelding als visuele context. Voor identificatie van gesprekssprekers demonstreren we de inefficiënties van bestaande methoden zoals vooraf getrainde modellen, en stellen we een eenvoudige maar effectieve basismethode voor die een optimalisatieoplosser gebruikt om de context van twee modaliteiten te benutten voor betere prestaties. Voor voorspelling van gespreksreacties fine-tunen we generatieve dialoogmodellen op Friends-MMC, en analyseren we de voordelen van sprekerinformatie. De code en dataset zijn openbaar beschikbaar op https://github.com/yellow-binary-tree/Friends-MMC en daarom roepen we op tot meer aandacht voor het modelleren van sprekerinformatie bij het begrijpen van gesprekken.
English
Multi-modal multi-party conversation (MMC) is a less studied yet important topic of research due to that it well fits real-world scenarios and thus potentially has more widely-used applications. Compared with the traditional multi-modal conversations, MMC requires stronger character-centered understanding abilities as there are many interlocutors appearing in both the visual and textual context. To facilitate the study of this problem, we present Friends-MMC in this paper, an MMC dataset that contains 24,000+ unique utterances paired with video context. To explore the character-centered understanding of the dialogue, we also annotate the speaker of each utterance, the names and bounding bboxes of faces that appear in the video. Based on this Friends-MMC dataset, we further study two fundamental MMC tasks: conversation speaker identification and conversation response prediction, both of which have the multi-party nature with the video or image as visual context. For conversation speaker identification, we demonstrate the inefficiencies of existing methods such as pre-trained models, and propose a simple yet effective baseline method that leverages an optimization solver to utilize the context of two modalities to achieve better performance. For conversation response prediction, we fine-tune generative dialogue models on Friend-MMC, and analyze the benefits of speaker information. The code and dataset is publicly available at https://github.com/yellow-binary-tree/Friends-MMC and thus we call for more attention on modeling speaker information when understanding conversations.
PDF92January 9, 2026