ChatPaper.aiChatPaper

GroupGPT : Un cadre agentiel économe en tokens et respectueux de la vie privée pour assistant conversationnel multi-utilisateurs

GroupGPT: A Token-efficient and Privacy-preserving Agentic Framework for Multi-User Chat Assistant

March 1, 2026
Auteurs: Zhuokang Shen, Yifan Wang, Hanyu Chen, Wenxuan Huang, Shaohui Lin
cs.AI

Résumé

Les récents progrès des grands modèles de langage (LLM) ont permis le développement de chatbots aux capacités croissantes. Cependant, la plupart des systèmes existants se concentrent sur des configurations à un seul utilisateur et ne se généralisent pas bien aux discussions de groupe multi-utilisateurs, où les agents nécessitent une intervention plus proactive et précise dans des contextes complexes et évolutifs. Les approches existantes reposent généralement sur les LLM à la fois pour le raisonnement et la génération, ce qui entraîne une consommation élevée de tokens, une scalabilité limitée et des risques potentiels pour la vie privée. Pour relever ces défis, nous proposons GroupGPT, un cadre agentique économe en tokens et préservant la confidentialité pour les assistants de discussion multi-utilisateurs. GroupGPT adopte une architecture collaborative de modèles petits-grands pour découpler le moment de l'intervention de la génération de réponse, permettant une prise de décision efficace et précise. Le cadre prend également en charge les entrées multimodales, y compris les mèmes, images, vidéos et messages vocaux. Nous introduisons en outre MUIR, un jeu de données de référence pour le raisonnement d'intervention des assistants de discussion multi-utilisateurs. MUIR contient 2 500 segments de discussion de groupe annotés avec des étiquettes d'intervention et leurs justifications, supportant l'évaluation de la précision temporelle et de la qualité des réponses. Nous évaluons une série de modèles sur MUIR, des grands modèles de langage à leurs homologues plus petits. Des expériences approfondies démontrent que GroupGPT produit des réponses précises et bien synchronisées, obtenant un score moyen de 4,72/5,0 dans l'évaluation basée sur les LLM, et est bien accueilli par les utilisateurs dans divers scénarios de discussion de groupe. De plus, GroupGPT réduit l'utilisation de tokens jusqu'à 3 fois par rapport aux méthodes de référence, tout en assurant un assainissement pour la confidentialité des messages utilisateur avant leur transmission vers le cloud. Le code est disponible à l'adresse : https://github.com/Eliot-Shen/GroupGPT.
English
Recent advances in large language models (LLMs) have enabled increasingly capable chatbots. However, most existing systems focus on single-user settings and do not generalize well to multi-user group chats, where agents require more proactive and accurate intervention under complex, evolving contexts. Existing approaches typically rely on LLMs for both reasoning and generation, leading to high token consumption, limited scalability, and potential privacy risks. To address these challenges, we propose GroupGPT, a token-efficient and privacy-preserving agentic framework for multi-user chat assistant. GroupGPT adopts a small-large model collaborative architecture to decouple intervention timing from response generation, enabling efficient and accurate decision-making. The framework also supports multimodal inputs, including memes, images, videos, and voice messages. We further introduce MUIR, a benchmark dataset for multi-user chat assistant intervention reasoning. MUIR contains 2,500 annotated group chat segments with intervention labels and rationales, supporting evaluation of timing accuracy and response quality. We evaluate a range of models on MUIR, from large language models to smaller counterparts. Extensive experiments demonstrate that GroupGPT produces accurate and well-timed responses, achieving an average score of 4.72/5.0 in LLM-based evaluation, and is well received by users across diverse group chat scenarios. Moreover, GroupGPT reduces token usage by up to 3 times compared to baseline methods, while providing privacy sanitization of user messages before cloud transmission. Code is available at: https://github.com/Eliot-Shen/GroupGPT .
PDF12March 7, 2026