Mem0: Entwicklung produktionsreifer KI-Agenten mit skalierbarem LangzeitgedächtnisMem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten bei der Erzeugung kontextuell kohärenter Antworten gezeigt, doch ihre festen Kontextfenster stellen grundlegende Herausforderungen für die Aufrechterhaltung der Konsistenz über längere, mehrteilige Dialoge dar. Wir stellen Mem0 vor, eine skalierbare, speicherzentrierte Architektur, die dieses Problem durch die dynamische Extraktion, Konsolidierung und Abfrage relevanter Informationen aus laufenden Gesprächen adressiert. Auf dieser Grundlage aufbauend, schlagen wir eine erweiterte Variante vor, die graphenbasierte Speicherdarstellungen nutzt, um komplexe Beziehungsstrukturen zwischen Konversationselementen zu erfassen. Durch umfassende Bewertungen auf dem LOCOMO-Benchmark vergleichen wir unsere Ansätze systematisch mit sechs Baseline-Kategorien: (i) etablierte speicheraugmentierte Systeme, (ii) abrufaugmentierte Generierung (RAG) mit variierenden Chunk-Größen und k-Werten, (iii) ein Vollkontext-Ansatz, der den gesamten Gesprächsverlauf verarbeitet, (iv) eine Open-Source-Speicherlösung, (v) ein proprietäres Modellsystem und (vi) eine dedizierte Speicherverwaltungsplattform. Empirische Ergebnisse zeigen, dass unsere Methoden durchweg alle bestehenden Speichersysteme in vier Fragentypen übertreffen: Single-Hop, zeitliche, Multi-Hop und offene Domänen. Insbesondere erzielt Mem0 eine relative Verbesserung von 26 % im LLM-as-a-Judge-Metrik gegenüber OpenAI, während Mem0 mit Graphenspeicher eine um etwa 2 % höhere Gesamtpunktzahl als die Basiskonfiguration erreicht. Neben Genauigkeitssteigerungen reduzieren wir auch deutlich den Rechenaufwand im Vergleich zur Vollkontext-Methode. Insbesondere erreicht Mem0 eine um 91 % niedrigere p95-Latenz und spart mehr als 90 % der Token-Kosten, was ein überzeugendes Gleichgewicht zwischen fortgeschrittenen Denkfähigkeiten und praktischen Einsatzbeschränkungen bietet. Unsere Ergebnisse unterstreichen die entscheidende Rolle strukturierter, persistenter Speichermechanismen für langfristige Gesprächskohärenz und ebnen den Weg für zuverlässigere und effizientere LLM-gesteuerte KI-Agenten.