XR: Agenti Cross-Modali per il Recupero di Immagini Composte
XR: Cross-Modal Agents for Composed Image Retrieval
January 20, 2026
Autori: Zhongyu Yang, Wei Pang, Yingfang Yuan
cs.AI
Abstract
La ricerca per recupero informazioni sta venendo ridefinita dall'IA agenziale, richiedendo ragionamenti multimodali che vanno oltre i paradigmi convenzionali basati sulla similarità. Il Composed Image Retrieval (CIR) esemplifica questo cambiamento, poiché ogni query combina un'immagine di riferimento con modifiche testuali, richiedendo una comprensione compositiva attraverso le modalità. Sebbene i metodi CIR basati su embedding abbiano compiuto progressi, mantengono una prospettiva ristretta, catturando segnali cross-modali limitati e mancando di ragionamento semantico. Per affrontare queste limitazioni, introduciamo XR, un framework multi-agente senza necessità di addestramento che riformula il recupero come un processo di ragionamento progressivamente coordinato. XR orchestra tre tipi specializzati di agenti: gli agenti di immaginazione sintetizzano rappresentazioni target attraverso la generazione cross-modale, gli agenti di similarità eseguono un filtraggio approssimativo tramite matching ibrido, e gli agenti di domanda verificano la coerenza fattuale attraverso ragionamenti mirati per un filtraggio fine. Attraverso una coordinazione multi-agente progressiva, XR affina iterativamente il recupero per soddisfare sia i vincoli semantici che visivi delle query, ottenendo un miglioramento fino al 38% rispetto a baseline solide, sia senza che con addestramento, su FashionIQ, CIRR e CIRCO, mentre le ablation study dimostrano che ogni agente è essenziale. Il codice è disponibile: https://01yzzyu.github.io/xr.github.io/.
English
Retrieval is being redefined by agentic AI, demanding multimodal reasoning beyond conventional similarity-based paradigms. Composed Image Retrieval (CIR) exemplifies this shift as each query combines a reference image with textual modifications, requiring compositional understanding across modalities. While embedding-based CIR methods have achieved progress, they remain narrow in perspective, capturing limited cross-modal cues and lacking semantic reasoning. To address these limitations, we introduce XR, a training-free multi-agent framework that reframes retrieval as a progressively coordinated reasoning process. It orchestrates three specialized types of agents: imagination agents synthesize target representations through cross-modal generation, similarity agents perform coarse filtering via hybrid matching, and question agents verify factual consistency through targeted reasoning for fine filtering. Through progressive multi-agent coordination, XR iteratively refines retrieval to meet both semantic and visual query constraints, achieving up to a 38% gain over strong training-free and training-based baselines on FashionIQ, CIRR, and CIRCO, while ablations show each agent is essential. Code is available: https://01yzzyu.github.io/xr.github.io/.