SDF-Net: 광학-SAR 선박 재식별을 위한 구조 인식 분리 특징 학습
SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification
March 13, 2026
저자: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li
cs.AI
초록
광학 영상과 합성개구레이더(SAR) 영상 간의 교차 모달 함선 재식별(ReID)은 수동적 광학 이미징과 간섭성 능동 레이더 감지 간의 심각한 방사 측정적 차이로 인해 근본적인 어려움에 직면해 있습니다. 기존 접근법이 주로 통계적 분포 정렬이나 의미론적 매칭에 의존하는 반면, 그들은 중요한 물리적 사전 정보를 종종 간과합니다: 함선은 감지 모달리티에 관계없이 기하학적 구조가 안정적인 강체 객체이지만, 텍스처 외관은 모달리티에 크게 의존한다는 점입니다. 본 연구에서는 기하학적 일관성을 광학-SAR 함선 ReID에 체계적으로 통합하는 구조 인식 분리 특징 학습 네트워크인 SDF-Net을 제안합니다. ViT 백본을 기반으로 구축된 SDF-Net은 중간 계층에서 스케일 불변 기울기 에너지 통계를 추출하여 방사 측정 변화에 대해 강력하게 표현을 고정하는 구조 일관성 제약을 도입합니다. 최종 단계에서 SDF-Net은 학습된 표현을 모달리티 불변 신원 특징과 모달리티 특정 특성으로 분리합니다. 이러한 분리된 단서들은 매개변수 없는 가산 잔차 융합을 통해 통합되어 판별력을 효과적으로 향상시킵니다. HOSS-ReID 데이터셋에 대한 광범위한 실험을 통해 SDF-Net이 기존 최첨단 방법들을 지속적으로 능가함을 입증합니다. 코드와 훈련된 모델은 https://github.com/cfrfree/SDF-Net에서 공개적으로 이용 가능합니다.
English
Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.