ChatPaper.aiChatPaper

SDF-Net: Strukturbewusstes entflochtenes Merkmalslernen für optisch-SAR Schiffs-Re-Identifikation

SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification

March 13, 2026
Autoren: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li
cs.AI

Zusammenfassung

Die schiffbasierte Kreuzmodal-Wiedererkennung (ReID) zwischen optischen und synthetischen Apertur-Radar (SAR)-Aufnahmen ist grundlegend durch die erhebliche radiometrische Diskrepanz zwischen passiver optischer Abbildung und kohärenter aktiver Radarerfassung herausgefordert. Während bestehende Ansätze primär auf statistischer Verteilungsangleichung oder semantischem Abgleich basieren, übersehen sie oft eine kritische physikalische Prämisse: Schiffe sind starre Objekte, deren geometrische Strukturen über Erfassungsmodalitäten hinweg stabil bleiben, während die Texturerscheinung hochgradig modalitätsabhängig ist. In dieser Arbeit schlagen wir SDF-Net vor, ein strukturorientiertes Netzwerk zur entflochtenen Merkmalslernung, das geometrische Konsistenz systematisch in die optisch-SAR-Schiffs-ReID integriert. Aufbauend auf einem ViT-Backbone führt SDF-Net eine Strukturkonsistenzbedingung ein, die skalierungsinvariante Gradientenenergiestatistiken aus Zwischenschichten extrahiert, um Repräsentationen robust gegenüber radiometrischen Variationen zu verankern. In der Endstufe entflochtet SDF-Net die gelernten Repräsentationen in modalitätsinvariante Identitätsmerkmale und modalitätsspezifische Charakteristika. Diese entkoppelten Hinweise werden anschließend durch eine parameterfreie additive Restfusion integriert, wodurch die Unterscheidungsfähigkeit effektiv gesteigert wird. Umfangreiche Experimente mit dem HOSS-ReID-Datensatz belegen, dass SDF-Net bestehende State-of-the-Art-Methoden durchgängig übertrifft. Der Code und trainierten Modelle sind öffentlich unter https://github.com/cfrfree/SDF-Net verfügbar.
English
Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.
PDF12March 30, 2026