SDF-Net: Structuurbewust Ontvlochten Kenmerkleren voor Optische-SAR Scheepsherkenning
SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification
March 13, 2026
Auteurs: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li
cs.AI
Samenvatting
Cross-modale scheepsherkenning (ReID) tussen optische en synthetische apertureradar (SAR) beelden wordt fundamenteel bemoeilijkt door de ernstige radiometrische discrepantie tussen passieve optische beeldvorming en coherente actieve radarmetingen. Hoewel bestaande methoden voornamelijk vertrouwen op statistische distributie-alignering of semantische matching, negeren ze vaak een cruciaal fysisch uitgangspunt: schepen zijn rigide objecten waarvan de geometrische structuren stabiel blijven over verschillende beeldvormingsmodaliteiten heen, terwijl textuur en uiterlijk sterk modaliteitsafhankelijk zijn. In dit werk stellen we SDF-Net voor, een structuurbewust netwerk voor ontvlochten kenmerkaanleren dat geometrische consistentie systematisch integreert in optisch-SAR scheeps-ReID. Gebouwd op een ViT-backbone, introduceert SDF-Net een structuurconsistentiebeperking die schaalinvariante gradientenenergiestatistieken uit tussenlagen haalt om representaties robuust te verankeren tegen radiometrische variaties. In de eindfase ontvlecht SDF-Net de aangeleerde representaties in modaliteitsinvariante identiteitskenmerken en modaliteitsspecifieke karakteristieken. Deze ontkoppelde signalen worden vervolgens geïntegreerd via een parameterloze additieve residu-fusie, waardoor het onderscheidend vermogen effectief wordt verbeterd. Uitgebreide experimenten op de HOSS-ReID dataset tonen aan dat SDF-Net consistent superieur presteert ten opzichte van bestaande state-of-the-art methoden. De code en getrainde modellen zijn openbaar beschikbaar op https://github.com/cfrfree/SDF-Net.
English
Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.