ChatPaper.aiChatPaper

Mem0: Entwicklung produktionsreifer KI-Agenten mit skalierbarem Langzeitgedächtnis

Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory

April 28, 2025
Autoren: Prateek Chhikara, Dev Khant, Saket Aryan, Taranjeet Singh, Deshraj Yadav
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten bei der Erzeugung kontextuell kohärenter Antworten gezeigt, doch ihre festen Kontextfenster stellen grundlegende Herausforderungen für die Aufrechterhaltung der Konsistenz über längere, mehrteilige Dialoge dar. Wir stellen Mem0 vor, eine skalierbare, speicherzentrierte Architektur, die dieses Problem durch die dynamische Extraktion, Konsolidierung und Abfrage relevanter Informationen aus laufenden Gesprächen adressiert. Auf dieser Grundlage aufbauend, schlagen wir eine erweiterte Variante vor, die graphenbasierte Speicherdarstellungen nutzt, um komplexe Beziehungsstrukturen zwischen Konversationselementen zu erfassen. Durch umfassende Bewertungen auf dem LOCOMO-Benchmark vergleichen wir unsere Ansätze systematisch mit sechs Baseline-Kategorien: (i) etablierte speicheraugmentierte Systeme, (ii) abrufaugmentierte Generierung (RAG) mit variierenden Chunk-Größen und k-Werten, (iii) ein Vollkontext-Ansatz, der den gesamten Gesprächsverlauf verarbeitet, (iv) eine Open-Source-Speicherlösung, (v) ein proprietäres Modellsystem und (vi) eine dedizierte Speicherverwaltungsplattform. Empirische Ergebnisse zeigen, dass unsere Methoden durchweg alle bestehenden Speichersysteme in vier Fragentypen übertreffen: Single-Hop, zeitliche, Multi-Hop und offene Domänen. Insbesondere erzielt Mem0 eine relative Verbesserung von 26 % im LLM-as-a-Judge-Metrik gegenüber OpenAI, während Mem0 mit Graphenspeicher eine um etwa 2 % höhere Gesamtpunktzahl als die Basiskonfiguration erreicht. Neben Genauigkeitssteigerungen reduzieren wir auch deutlich den Rechenaufwand im Vergleich zur Vollkontext-Methode. Insbesondere erreicht Mem0 eine um 91 % niedrigere p95-Latenz und spart mehr als 90 % der Token-Kosten, was ein überzeugendes Gleichgewicht zwischen fortgeschrittenen Denkfähigkeiten und praktischen Einsatzbeschränkungen bietet. Unsere Ergebnisse unterstreichen die entscheidende Rolle strukturierter, persistenter Speichermechanismen für langfristige Gesprächskohärenz und ebnen den Weg für zuverlässigere und effizientere LLM-gesteuerte KI-Agenten.
English
Large Language Models (LLMs) have demonstrated remarkable prowess in generating contextually coherent responses, yet their fixed context windows pose fundamental challenges for maintaining consistency over prolonged multi-session dialogues. We introduce Mem0, a scalable memory-centric architecture that addresses this issue by dynamically extracting, consolidating, and retrieving salient information from ongoing conversations. Building on this foundation, we further propose an enhanced variant that leverages graph-based memory representations to capture complex relational structures among conversational elements. Through comprehensive evaluations on LOCOMO benchmark, we systematically compare our approaches against six baseline categories: (i) established memory-augmented systems, (ii) retrieval-augmented generation (RAG) with varying chunk sizes and k-values, (iii) a full-context approach that processes the entire conversation history, (iv) an open-source memory solution, (v) a proprietary model system, and (vi) a dedicated memory management platform. Empirical results show that our methods consistently outperform all existing memory systems across four question categories: single-hop, temporal, multi-hop, and open-domain. Notably, Mem0 achieves 26% relative improvements in the LLM-as-a-Judge metric over OpenAI, while Mem0 with graph memory achieves around 2% higher overall score than the base configuration. Beyond accuracy gains, we also markedly reduce computational overhead compared to full-context method. In particular, Mem0 attains a 91% lower p95 latency and saves more than 90% token cost, offering a compelling balance between advanced reasoning capabilities and practical deployment constraints. Our findings highlight critical role of structured, persistent memory mechanisms for long-term conversational coherence, paving the way for more reliable and efficient LLM-driven AI agents.

Summary

AI-Generated Summary

PDF72April 29, 2025