MMA: Multimodale Geheugenagent
MMA: Multimodal Memory Agent
February 18, 2026
Auteurs: Yihao Lu, Wanru Cheng, Zeyu Zhang, Hao Tang
cs.AI
Samenvatting
Multimodale agenten met een lange-termijnhorizon zijn afhankelijk van extern geheugen; op gelijkenis gebaseerde retrievel levert echter vaak verouderde, onbetrouwbare of tegenstrijdige items op, wat tot overmoedige fouten kan leiden. Wij stellen de Multimodale Geheugen Agent (MMA) voor, die aan elk opgehaald geheugenitem een dynamische betrouwbaarheidsscore toekent door bronbetrouwbaarheid, temporeel verval en conflictbewuste netwerkconsensus te combineren, en dit signaal gebruikt om bewijsmateriaal te herwegen en zich van oordeel te onthouden wanneer de ondersteuning onvoldoende is. Wij introduceren ook MMA-Bench, een programmatisch gegenereerde benchmark voor geloofsdynamiek met gecontroleerde sprekersbetrouwbaarheid en gestructureerde tekst-visie tegenstrijdigheden. Met dit framework leggen wij het "Visuele Placebo-effect" bloot, dat onthult hoe op RAG gebaseerde agenten latente visuele vooroordelen van foundation models overnemen. Op FEVER evenaart MMA de basislijnnauwkeurigheid, maar vermindert de variantie met 35,2% en verbetert het selectieve nut; op LoCoMo verbetert een veiligheidsgerichte configuratie de actiegerichte nauwkeurigheid en vermindert het aantal foute antwoorden; op MMA-Bench bereikt MMA 41,18% Type-B nauwkeurigheid in Visiemodus, terwijl de basislijn onder hetzelfde protocol inzakt tot 0,0%. Code: https://github.com/AIGeeksGroup/MMA.
English
Long-horizon multimodal agents depend on external memory; however, similarity-based retrieval often surfaces stale, low-credibility, or conflicting items, which can trigger overconfident errors. We propose Multimodal Memory Agent (MMA), which assigns each retrieved memory item a dynamic reliability score by combining source credibility, temporal decay, and conflict-aware network consensus, and uses this signal to reweight evidence and abstain when support is insufficient. We also introduce MMA-Bench, a programmatically generated benchmark for belief dynamics with controlled speaker reliability and structured text-vision contradictions. Using this framework, we uncover the "Visual Placebo Effect", revealing how RAG-based agents inherit latent visual biases from foundation models. On FEVER, MMA matches baseline accuracy while reducing variance by 35.2% and improving selective utility; on LoCoMo, a safety-oriented configuration improves actionable accuracy and reduces wrong answers; on MMA-Bench, MMA reaches 41.18% Type-B accuracy in Vision mode, while the baseline collapses to 0.0% under the same protocol. Code: https://github.com/AIGeeksGroup/MMA.