ChatPaper.aiChatPaper

リモートセンシング変化検出のための状態空間モデルの変更

Change State Space Models for Remote Sensing Change Detection

April 15, 2025
著者: Elman Ghazaei, Erchan Aptoula
cs.AI

要旨

変化検出において頻繁に使用されるにもかかわらず、ConvNetsとVision Transformers(ViT)は両者ともよく知られた限界を示しています。具体的には、前者は長距離依存関係をモデル化するのに苦労し、後者は計算効率が低く、大規模データセットでの学習が困難です。State Space Modelsに基づくアーキテクチャであるVision Mambaは、これらの欠点を解決する代替手段として登場し、すでにリモートセンシングの変化検出に適用されていますが、主に特徴抽出のバックボーンとして使用されています。本論文では、二時相画像間の関連する変化に焦点を当て、無関係な情報を効果的にフィルタリングするために特別に設計されたChange State Space Modelを紹介します。変化した特徴のみに集中することで、ネットワークのパラメータ数を削減し、計算効率を大幅に向上させながら、高い検出性能と入力劣化に対する堅牢性を維持します。提案モデルは3つのベンチマークデータセットで評価され、ConvNets、ViTs、およびMambaベースのモデルを計算複雑性の一部で上回りました。実装は受理後、https://github.com/Elman295/CSSMで公開されます。
English
Despite their frequent use for change detection, both ConvNets and Vision transformers (ViT) exhibit well-known limitations, namely the former struggle to model long-range dependencies while the latter are computationally inefficient, rendering them challenging to train on large-scale datasets. Vision Mamba, an architecture based on State Space Models has emerged as an alternative addressing the aforementioned deficiencies and has been already applied to remote sensing change detection, though mostly as a feature extracting backbone. In this article the Change State Space Model is introduced, that has been specifically designed for change detection by focusing on the relevant changes between bi-temporal images, effectively filtering out irrelevant information. By concentrating solely on the changed features, the number of network parameters is reduced, enhancing significantly computational efficiency while maintaining high detection performance and robustness against input degradation. The proposed model has been evaluated via three benchmark datasets, where it outperformed ConvNets, ViTs, and Mamba-based counterparts at a fraction of their computational complexity. The implementation will be made available at https://github.com/Elman295/CSSM upon acceptance.

Summary

AI-Generated Summary

PDF12April 16, 2025