Mem0: Создание готовых к производству ИИ-агентов с масштабируемой долговременной памятьюMem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
Крупные языковые модели (LLM) продемонстрировали впечатляющую способность генерировать контекстуально связные ответы, однако их фиксированные окна контекста создают фундаментальные проблемы для поддержания согласованности в продолжительных многосессионных диалогах. Мы представляем Mem0, масштабируемую архитектуру, ориентированную на память, которая решает эту проблему за счет динамического извлечения, консолидации и извлечения ключевой информации из текущих бесед. На основе этого подхода мы предлагаем улучшенный вариант, использующий графовые представления памяти для захвата сложных реляционных структур между элементами диалога. В ходе всесторонних оценок на бенчмарке LOCOMO мы систематически сравниваем наши подходы с шестью категориями базовых методов: (i) устоявшиеся системы с расширенной памятью, (ii) генерация с расширением поиска (RAG) с различными размерами фрагментов и значениями k, (iii) подход с полным контекстом, обрабатывающий всю историю беседы, (iv) открытое решение для памяти, (v) проприетарная модель системы и (vi) специализированная платформа управления памятью. Эмпирические результаты показывают, что наши методы стабильно превосходят все существующие системы памяти по четырем категориям вопросов: одношаговые, временные, многошаговые и открытые. В частности, Mem0 достигает 26% относительного улучшения по метрике LLM-as-a-Judge по сравнению с OpenAI, а Mem0 с графовой памятью демонстрирует примерно на 2% более высокий общий балл, чем базовая конфигурация. Помимо повышения точности, мы также значительно снижаем вычислительные затраты по сравнению с методом полного контекста. В частности, Mem0 достигает 91% снижения p95 задержки и экономит более 90% затрат на токены, предлагая убедительный баланс между продвинутыми возможностями рассуждения и практическими ограничениями развертывания. Наши результаты подчеркивают критическую роль структурированных, устойчивых механизмов памяти для долгосрочной согласованности диалогов, прокладывая путь к более надежным и эффективным ИИ-агентам на основе LLM.