ChatPaper.aiChatPaper

Mem0: Construindo Agentes de IA Prontos para Produção com Memória de Longo Prazo Escalável

Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory

April 28, 2025
Autores: Prateek Chhikara, Dev Khant, Saket Aryan, Taranjeet Singh, Deshraj Yadav
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs) demonstraram uma habilidade notável em gerar respostas contextualmente coerentes, mas suas janelas de contexto fixas apresentam desafios fundamentais para manter a consistência em diálogos prolongados e multi-sessão. Introduzimos o Mem0, uma arquitetura escalável centrada em memória que aborda essa questão ao extrair, consolidar e recuperar dinamicamente informações relevantes de conversas em andamento. Com base nessa fundação, propomos ainda uma variante aprimorada que utiliza representações de memória baseadas em grafos para capturar estruturas relacionais complexas entre elementos conversacionais. Por meio de avaliações abrangentes no benchmark LOCOMO, comparamos sistematicamente nossas abordagens contra seis categorias de baseline: (i) sistemas estabelecidos aumentados por memória, (ii) geração aumentada por recuperação (RAG) com diferentes tamanhos de fragmentos e valores de k, (iii) uma abordagem de contexto completo que processa todo o histórico da conversa, (iv) uma solução de memória de código aberto, (v) um sistema de modelo proprietário, e (vi) uma plataforma dedicada de gerenciamento de memória. Resultados empíricos mostram que nossos métodos superam consistentemente todos os sistemas de memória existentes em quatro categorias de perguntas: salto único, temporal, multi-salto e domínio aberto. Notavelmente, o Mem0 alcança uma melhoria relativa de 26% na métrica LLM-as-a-Judge em relação à OpenAI, enquanto o Mem0 com memória em grafo atinge uma pontuação geral cerca de 2% maior do que a configuração base. Além dos ganhos em precisão, também reduzimos significativamente a sobrecarga computacional em comparação com o método de contexto completo. Em particular, o Mem0 atinge uma latência p95 91% menor e economiza mais de 90% no custo de tokens, oferecendo um equilíbrio convincente entre capacidades avançadas de raciocínio e restrições práticas de implantação. Nossas descobertas destacam o papel crítico de mecanismos de memória estruturada e persistente para a coerência conversacional de longo prazo, abrindo caminho para agentes de IA impulsionados por LLMs mais confiáveis e eficientes.
English
Large Language Models (LLMs) have demonstrated remarkable prowess in generating contextually coherent responses, yet their fixed context windows pose fundamental challenges for maintaining consistency over prolonged multi-session dialogues. We introduce Mem0, a scalable memory-centric architecture that addresses this issue by dynamically extracting, consolidating, and retrieving salient information from ongoing conversations. Building on this foundation, we further propose an enhanced variant that leverages graph-based memory representations to capture complex relational structures among conversational elements. Through comprehensive evaluations on LOCOMO benchmark, we systematically compare our approaches against six baseline categories: (i) established memory-augmented systems, (ii) retrieval-augmented generation (RAG) with varying chunk sizes and k-values, (iii) a full-context approach that processes the entire conversation history, (iv) an open-source memory solution, (v) a proprietary model system, and (vi) a dedicated memory management platform. Empirical results show that our methods consistently outperform all existing memory systems across four question categories: single-hop, temporal, multi-hop, and open-domain. Notably, Mem0 achieves 26% relative improvements in the LLM-as-a-Judge metric over OpenAI, while Mem0 with graph memory achieves around 2% higher overall score than the base configuration. Beyond accuracy gains, we also markedly reduce computational overhead compared to full-context method. In particular, Mem0 attains a 91% lower p95 latency and saves more than 90% token cost, offering a compelling balance between advanced reasoning capabilities and practical deployment constraints. Our findings highlight critical role of structured, persistent memory mechanisms for long-term conversational coherence, paving the way for more reliable and efficient LLM-driven AI agents.
PDF182April 29, 2025