ChatPaper.aiChatPaper

FSG-Net: 高解像度リモートセンシング変化検出のための周波数-空間協調ゲートネットワーク

FSG-Net: Frequency-Spatial Synergistic Gated Network for High-Resolution Remote Sensing Change Detection

September 8, 2025
著者: Zhongxiang Xie, Shuangxi Miao, Yuhan Jiang, Zhewei Zhang, Jing Yao, Xuecao Li, Jianxi Huang, Pedram Ghamisi
cs.AI

要旨

高解像度リモートセンシング画像からの変化検出は、地球観測アプリケーションの基盤をなすものであるが、その有効性はしばしば2つの重要な課題によって損なわれる。第一に、モデルが時間的な変化(例えば、照明や季節)による放射量の変動を実際の変化と誤解するため、誤検出が頻繁に発生する。第二に、深い抽象的特徴と浅い詳細に富む特徴との間に無視できない意味的ギャップが存在し、それらの効果的な融合を妨げ、結果として境界線が不明瞭になる傾向がある。これらの問題をさらに解決するために、我々はFrequency-Spatial Synergistic Gated Network(FSG-Net)を提案する。これは、意味的な変化と不要な変動を体系的に分離することを目指す新しいパラダイムである。具体的には、FSG-Netはまず周波数領域で動作し、Discrepancy-Aware Wavelet Interaction Module(DAWIM)が異なる周波数成分を識別して処理することで、疑似変化を適応的に軽減する。その後、精緻化された特徴は、Synergistic Temporal-Spatial Attention Module(STSAM)によって空間領域で強化され、実際の変化領域の顕著性が増幅される。最後に、意味的ギャップを埋めるために、Lightweight Gated Fusion Unit(LGFU)が高レベルの意味情報を活用し、浅い層からの重要な詳細を選択的にゲートして統合する。CDD、GZ-CD、およびLEVIR-CDベンチマークでの包括的な実験により、FSG-Netの優位性が検証され、それぞれF1スコア94.16%、89.51%、91.27%で新たな最先端技術を確立した。コードは、出版後にhttps://github.com/zxXie-Air/FSG-Netで公開される予定である。
English
Change detection from high-resolution remote sensing images lies as a cornerstone of Earth observation applications, yet its efficacy is often compromised by two critical challenges. First, false alarms are prevalent as models misinterpret radiometric variations from temporal shifts (e.g., illumination, season) as genuine changes. Second, a non-negligible semantic gap between deep abstract features and shallow detail-rich features tends to obstruct their effective fusion, culminating in poorly delineated boundaries. To step further in addressing these issues, we propose the Frequency-Spatial Synergistic Gated Network (FSG-Net), a novel paradigm that aims to systematically disentangle semantic changes from nuisance variations. Specifically, FSG-Net first operates in the frequency domain, where a Discrepancy-Aware Wavelet Interaction Module (DAWIM) adaptively mitigates pseudo-changes by discerningly processing different frequency components. Subsequently, the refined features are enhanced in the spatial domain by a Synergistic Temporal-Spatial Attention Module (STSAM), which amplifies the saliency of genuine change regions. To finally bridge the semantic gap, a Lightweight Gated Fusion Unit (LGFU) leverages high-level semantics to selectively gate and integrate crucial details from shallow layers. Comprehensive experiments on the CDD, GZ-CD, and LEVIR-CD benchmarks validate the superiority of FSG-Net, establishing a new state-of-the-art with F1-scores of 94.16%, 89.51%, and 91.27%, respectively. The code will be made available at https://github.com/zxXie-Air/FSG-Net after a possible publication.
PDF02September 19, 2025