HaluMem: Evaluación de Alucinaciones en Sistemas de Memoria de Agentes
HaluMem: Evaluating Hallucinations in Memory Systems of Agents
November 5, 2025
Autores: Ding Chen, Simin Niu, Kehang Li, Peng Liu, Xiangping Zheng, Bo Tang, Xinchi Li, Feiyu Xiong, Zhiyu Li
cs.AI
Resumen
Los sistemas de memoria son componentes clave que permiten a los sistemas de IA, como los LLM y los agentes de IA, lograr aprendizaje a largo plazo e interacción sostenida. Sin embargo, durante el almacenamiento y la recuperación de la memoria, estos sistemas frecuentemente exhiben alucinaciones de memoria, incluyendo fabricación, errores, conflictos y omisiones. Las evaluaciones existentes de las alucinaciones de memoria son principalmente de pregunta-respuesta de extremo a extremo, lo que dificulta localizar la etapa operativa dentro del sistema de memoria donde surgen las alucinaciones. Para abordar esto, presentamos el Benchmark de Alucinación en Memoria (HaluMem), el primer benchmark de evaluación de alucinaciones a nivel operativo diseñado específicamente para sistemas de memoria. HaluMem define tres tareas de evaluación (extracción de memoria, actualización de memoria y pregunta-respuesta sobre memoria) para revelar exhaustivamente los comportamientos de alucinación a través de las diferentes etapas operativas de la interacción. Para respaldar la evaluación, construimos conjuntos de datos de interacción humano-IA multituda centrados en el usuario, HaluMem-Medio y HaluMem-Largo. Ambos incluyen aproximadamente 15k puntos de memoria y 3.5k preguntas de múltiples tipos. La longitud promedio de diálogo por usuario alcanza 1.5k y 2.6k turnos, con longitudes de contexto que superan 1 millón de tokens, permitiendo evaluar alucinaciones a través de diferentes escalas de contexto y complejidades de tareas. Los estudios empíricos basados en HaluMem muestran que los sistemas de memoria existentes tienden a generar y acumular alucinaciones durante las etapas de extracción y actualización, lo que posteriormente propaga errores a la etapa de pregunta-respuesta. La investigación futura debería centrarse en desarrollar mecanismos de operación de memoria interpretables y restringidos que supriman sistemáticamente las alucinaciones y mejoren la confiabilidad de la memoria.
English
Memory systems are key components that enable AI systems such as LLMs and AI
agents to achieve long-term learning and sustained interaction. However, during
memory storage and retrieval, these systems frequently exhibit memory
hallucinations, including fabrication, errors, conflicts, and omissions.
Existing evaluations of memory hallucinations are primarily end-to-end question
answering, which makes it difficult to localize the operational stage within
the memory system where hallucinations arise. To address this, we introduce the
Hallucination in Memory Benchmark (HaluMem), the first operation level
hallucination evaluation benchmark tailored to memory systems. HaluMem defines
three evaluation tasks (memory extraction, memory updating, and memory question
answering) to comprehensively reveal hallucination behaviors across different
operational stages of interaction. To support evaluation, we construct
user-centric, multi-turn human-AI interaction datasets, HaluMem-Medium and
HaluMem-Long. Both include about 15k memory points and 3.5k multi-type
questions. The average dialogue length per user reaches 1.5k and 2.6k turns,
with context lengths exceeding 1M tokens, enabling evaluation of hallucinations
across different context scales and task complexities. Empirical studies based
on HaluMem show that existing memory systems tend to generate and accumulate
hallucinations during the extraction and updating stages, which subsequently
propagate errors to the question answering stage. Future research should focus
on developing interpretable and constrained memory operation mechanisms that
systematically suppress hallucinations and improve memory reliability.