ChatPaper.aiChatPaper

GroupGPT: Un Marco de Agentes Eficiente en Tokens y Preservador de la Privacidad para Asistentes de Chat Multi-usuario

GroupGPT: A Token-efficient and Privacy-preserving Agentic Framework for Multi-User Chat Assistant

March 1, 2026
Autores: Zhuokang Shen, Yifan Wang, Hanyu Chen, Wenxuan Huang, Shaohui Lin
cs.AI

Resumen

Los recientes avances en los modelos de lenguaje de gran tamaño (LLM) han permitido el desarrollo de asistentes de chat cada vez más capaces. Sin embargo, la mayoría de los sistemas existentes se centran en entornos de usuario único y no se generalizan bien a chats grupales con múltiples usuarios, donde los agentes requieren una intervención más proactiva y precisa en contextos complejos y en evolución. Los enfoques existentes suelen depender de los LLM tanto para el razonamiento como para la generación, lo que conlleva un alto consumo de tokens, una escalabilidad limitada y posibles riesgos de privacidad. Para abordar estos desafíos, proponemos GroupGPT, un marco agéntico eficiente en tokens y que preserva la privacidad para asistentes de chat multiusuario. GroupGPT adopta una arquitectura colaborativa de modelos pequeños y grandes para desacoplar el momento de la intervención de la generación de respuestas, permitiendo una toma de decisiones eficiente y precisa. El marco también admite entradas multimodales, incluyendo memes, imágenes, vídeos y mensajes de voz. Además, presentamos MUIR, un conjunto de datos de referencia para el razonamiento de intervención de asistentes de chat multiusuario. MUIR contiene 2.500 segmentos de chat grupal anotados con etiquetas de intervención y justificaciones, lo que permite evaluar la precisión del momento de intervención y la calidad de la respuesta. Evaluamos una variedad de modelos en MUIR, desde grandes modelos de lenguaje hasta versiones más pequeñas. Experimentos exhaustivos demuestran que GroupGPT produce respuestas precisas y bien temporizadas, logrando una puntuación media de 4.72/5.0 en evaluaciones basadas en LLM, y es bien recibido por los usuarios en diversos escenarios de chat grupal. Además, GroupGPT reduce el uso de tokens hasta 3 veces en comparación con métodos base, al tiempo que proporciona un saneamiento de la privacidad de los mensajes de los usuarios antes de su transmisión a la nube. El código está disponible en: https://github.com/Eliot-Shen/GroupGPT.
English
Recent advances in large language models (LLMs) have enabled increasingly capable chatbots. However, most existing systems focus on single-user settings and do not generalize well to multi-user group chats, where agents require more proactive and accurate intervention under complex, evolving contexts. Existing approaches typically rely on LLMs for both reasoning and generation, leading to high token consumption, limited scalability, and potential privacy risks. To address these challenges, we propose GroupGPT, a token-efficient and privacy-preserving agentic framework for multi-user chat assistant. GroupGPT adopts a small-large model collaborative architecture to decouple intervention timing from response generation, enabling efficient and accurate decision-making. The framework also supports multimodal inputs, including memes, images, videos, and voice messages. We further introduce MUIR, a benchmark dataset for multi-user chat assistant intervention reasoning. MUIR contains 2,500 annotated group chat segments with intervention labels and rationales, supporting evaluation of timing accuracy and response quality. We evaluate a range of models on MUIR, from large language models to smaller counterparts. Extensive experiments demonstrate that GroupGPT produces accurate and well-timed responses, achieving an average score of 4.72/5.0 in LLM-based evaluation, and is well received by users across diverse group chat scenarios. Moreover, GroupGPT reduces token usage by up to 3 times compared to baseline methods, while providing privacy sanitization of user messages before cloud transmission. Code is available at: https://github.com/Eliot-Shen/GroupGPT .
PDF12March 7, 2026