ChatPaper.aiChatPaper

SDF-Net: 光学-SAR船舶再識別のための構造認識型分離特徴学習

SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification

March 13, 2026
著者: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li
cs.AI

要旨

光学画像と合成開口レーダー(SAR)画像間のクロスモーダル船舶再識別(ReID)は、受動的な光学イメージングとコヒーレントな能動的レーダー計測との間に生じる深刻な放射計量の不一致によって、根本的な課題に直面している。既存手法は主に統計的分布の調整や意味的マッチングに依存するが、船舶が幾何学的構造はセンシングモダリティ間で安定した剛体である一方、テクスチャ外観はモダリティに強く依存するという重要な物理的事前情報を見落としがちである。本研究では、幾何学的一貫性を光学-SAR船舶ReIDに体系的に組み込む、構造認識型分離特徴学習ネットワークSDF-Netを提案する。ViTバックボーン上に構築されたSDF-Netは、中間層からスケール不変な勾配エネルギー統計量を抽出し、放射計量変動に対して頑健な表現を固定する構造一貫性制約を導入する。最終段階では、SDF-Netは学習された表現を、モダリティ不変の識別特徴とモダリティ固有の特性に分離する。これらの分離された手がかりは、パラメータフリーの加算残差融合を通じて統合され、識別能力を効果的に強化する。HOSS-ReIDデータセットを用いた大規模な実験により、SDF-Netが既存の最先端手法を一貫して凌駕することを実証する。コード及び学習済みモデルはhttps://github.com/cfrfree/SDF-Net で公開されている。
English
Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.
PDF12March 30, 2026