ChatPaper.aiChatPaper

JAFAR: Potenzia Qualsiasi Funzione a Qualsiasi Risoluzione

JAFAR: Jack up Any Feature at Any Resolution

June 10, 2025
Autori: Paul Couairon, Loick Chambon, Louis Serrano, Jean-Emmanuel Haugeard, Matthieu Cord, Nicolas Thome
cs.AI

Abstract

I codificatori visivi di base (Foundation Vision Encoders) sono diventati essenziali per un'ampia gamma di attività di visione densa. Tuttavia, le loro uscite di caratteristiche spaziali a bassa risoluzione richiedono un'operazione di upsampling per produrre le modalità ad alta risoluzione necessarie per i task downstream. In questo lavoro, introduciamo JAFAR, un upsampler di caratteristiche leggero e flessibile che migliora la risoluzione spaziale delle caratteristiche visive provenienti da qualsiasi codificatore visivo di base fino a una risoluzione target arbitraria. JAFAR utilizza un modulo basato sull'attenzione progettato per promuovere l'allineamento semantico tra query ad alta risoluzione, derivate da caratteristiche di immagine di basso livello, e chiavi a bassa risoluzione semanticamente arricchite, utilizzando la modulazione Spatial Feature Transform (SFT). È degno di nota che, nonostante l'assenza di supervisione ad alta risoluzione, dimostriamo come l'apprendimento a bassi rapporti di upsampling e risoluzioni si generalizzi in modo eccezionale a scale di output significativamente più elevate. Esperimenti estesi mostrano che JAFAR recupera efficacemente dettagli spaziali fini e supera costantemente i metodi di upsampling esistenti su un'ampia varietà di task downstream. Pagina del progetto disponibile all'indirizzo https://jafar-upsampler.github.io.
English
Foundation Vision Encoders have become essential for a wide range of dense vision tasks. However, their low-resolution spatial feature outputs necessitate feature upsampling to produce the high-resolution modalities required for downstream tasks. In this work, we introduce JAFAR, a lightweight and flexible feature upsampler that enhances the spatial resolution of visual features from any Foundation Vision Encoder to an arbitrary target resolution. JAFAR employs an attention-based module designed to promote semantic alignment between high-resolution queries, derived from low-level image features, and semantically enriched low-resolution keys, using Spatial Feature Transform (SFT) modulation. Notably, despite the absence of high-resolution supervision, we demonstrate that learning at low upsampling ratios and resolutions generalizes remarkably well to significantly higher output scales. Extensive experiments show that JAFAR effectively recovers fine-grained spatial details and consistently outperforms existing feature upsampling methods across a diverse set of downstream tasks. Project page at https://jafar-upsampler.github.io
PDF102June 16, 2025