Zustandsraummodelle für die Fernerkundungsänderungserkennung
Change State Space Models for Remote Sensing Change Detection
April 15, 2025
Autoren: Elman Ghazaei, Erchan Aptoula
cs.AI
Zusammenfassung
Trotz ihrer häufigen Verwendung für die Veränderungserkennung weisen sowohl Convolutional Neural Networks (ConvNets) als auch Vision Transformer (ViT) bekannte Einschränkungen auf: Erstere haben Schwierigkeiten, langreichweitige Abhängigkeiten zu modellieren, während Letztere rechnerisch ineffizient sind, was ihre Ausbildung auf großen Datensätzen erschwert. Vision Mamba, eine auf State Space Models basierende Architektur, hat sich als Alternative etabliert, die die genannten Mängel adressiert, und wurde bereits für die Fernerkundung zur Veränderungserkennung eingesetzt, allerdings meist als Feature-Extraktion-Backbone. In diesem Artikel wird das Change State Space Model vorgestellt, das speziell für die Veränderungserkennung entwickelt wurde, indem es sich auf die relevanten Veränderungen zwischen bi-temporalen Bildern konzentriert und irrelevante Informationen effektiv herausfiltert. Durch die Konzentration ausschließlich auf die veränderten Merkmale wird die Anzahl der Netzwerkparameter reduziert, was die Recheneffizienz erheblich steigert, während gleichzeitig eine hohe Erkennungsleistung und Robustheit gegenüber Eingabedegradation erhalten bleibt. Das vorgeschlagene Modell wurde anhand von drei Benchmark-Datensätzen evaluiert, wobei es ConvNets, ViTs und Mamba-basierte Gegenstücke bei einem Bruchteil ihrer Rechenkomplexität übertraf. Die Implementierung wird nach der Annahme unter https://github.com/Elman295/CSSM verfügbar gemacht.
English
Despite their frequent use for change detection, both ConvNets and Vision
transformers (ViT) exhibit well-known limitations, namely the former struggle
to model long-range dependencies while the latter are computationally
inefficient, rendering them challenging to train on large-scale datasets.
Vision Mamba, an architecture based on State Space Models has emerged as an
alternative addressing the aforementioned deficiencies and has been already
applied to remote sensing change detection, though mostly as a feature
extracting backbone. In this article the Change State Space Model is
introduced, that has been specifically designed for change detection by
focusing on the relevant changes between bi-temporal images, effectively
filtering out irrelevant information. By concentrating solely on the changed
features, the number of network parameters is reduced, enhancing significantly
computational efficiency while maintaining high detection performance and
robustness against input degradation. The proposed model has been evaluated via
three benchmark datasets, where it outperformed ConvNets, ViTs, and Mamba-based
counterparts at a fraction of their computational complexity. The
implementation will be made available at https://github.com/Elman295/CSSM upon
acceptance.Summary
AI-Generated Summary