SDF-Net: Обучение разделенным признакам с учетом структуры для повторной идентификации кораблей на оптических и РЛС-изображениях
SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification
March 13, 2026
Авторы: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li
cs.AI
Аннотация
Перекрёстная идентификация кораблей (ReID) между оптическими и радиолокационными изображениями с синтезированной апертурой (SAR) фундаментально осложняется значительным радиометрическим расхождением между пассивным оптическим и когерентным активным радиолокационным зондированием. В то время как существующие подходы в основном опираются на выравнивание статистических распределений или семантическое сопоставление, они часто упускают важный физический принцип: корабли являются жесткими объектами, чьи геометрические структуры остаются стабильными между модальностями съемки, тогда как текстурный вид сильно зависит от модальности. В данной работе мы предлагаем SDF-Net — сеть с раздельным обучением признаков с учетом структуры, которая систематически интегрирует геометрическую согласованность в задачу оптико-радиолокационной идентификации кораблей. Построенная на базе архитектуры ViT, SDF-Net вводит ограничение структурной согласованности, которое извлекает масштабно-инвариантную статистику градиентной энергии из промежуточных слоев для устойчивого закрепления представлений вопреки радиометрическим вариациям. На заключительном этапе SDF-Net разделяет полученные представления на инвариантные к модальности признаки идентичности и специфичные для модальности характеристики. Эти разъединенные признаки затем интегрируются посредством беспараметричной аддитивной остаточной фьюжн-операции, эффективно усиливая дискриминативную способность. Многочисленные эксперименты на наборе данных HOSS-ReID демонстрируют, что SDF-Net стабильно превосходит существующие современные методы. Код и обученные модели общедоступны по адресу https://github.com/cfrfree/SDF-Net.
English
Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.