ChatPaper.aiChatPaper

SDF-Net: Apprendimento di Caratteristiche Disaccoppiate con Consapevolezza Strutturale per il Re-identificazione di Navi tra Dati Ottici e SAR

SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification

March 13, 2026
Autori: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li
cs.AI

Abstract

L'identificazione navale cross-modale (ReID) tra immagini ottiche e radar ad apertura sintetica (SAR) è fondamentalmente sfidata dalla grave discrepanza radiometrica tra l'imaging ottico passivo e il rilevamento radar attivo coerente. Mentre gli approcci esistenti si basano principalmente sull'allineamento della distribuzione statistica o sul matching semantico, essi spesso trascurano un priore fisico critico: le navi sono oggetti rigidi le cui strutture geometriche rimangono stabili attraverso le modalità di rilevamento, mentre l'aspetto della texture è altamente dipendente dalla modalità. In questo lavoro, proponiamo SDF-Net, una rete di apprendimento delle caratteristiche disaccoppiate consapevole della struttura, che incorpora sistematicamente la coerenza geometrica nel ReID navale ottico-SAR. Costruita su un backbone ViT, SDF-Net introduce un vincolo di consistenza strutturale che estrae statistiche dell'energia del gradiente invarianti alla scala dagli strati intermedi per ancorare robustamente le rappresentazioni contro le variazioni radiometriche. Nella fase terminale, SDF-Net disaccoppia le rappresentazioni apprese in caratteristiche d'identità invarianti alla modalità e caratteristiche specifiche della modalità. Questi indizi disaccoppiati sono poi integrati attraverso una fusione residua additiva senza parametri, migliorando efficacemente il potere discriminativo. Esperimenti estesi sul dataset HOSS-ReID dimostrano che SDF-Net supera costantemente i metodi state-of-the-art esistenti. Il codice e i modelli addestrati sono pubblicamente disponibili su https://github.com/cfrfree/SDF-Net.
English
Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.
PDF12March 30, 2026