Modelos de Espaço de Estados para Detecção de Mudanças em Sensoriamento Remoto
Change State Space Models for Remote Sensing Change Detection
April 15, 2025
Autores: Elman Ghazaei, Erchan Aptoula
cs.AI
Resumo
Apesar de seu uso frequente para detecção de mudanças, tanto as ConvNets quanto os Transformers de Visão (ViTs) apresentam limitações bem conhecidas: as primeiras têm dificuldade em modelar dependências de longo alcance, enquanto os últimos são computacionalmente ineficientes, tornando-os desafiadores para treinamento em conjuntos de dados em grande escala. O Vision Mamba, uma arquitetura baseada em Modelos de Espaço de Estados, surgiu como uma alternativa que aborda essas deficiências e já foi aplicado à detecção de mudanças em sensoriamento remoto, embora principalmente como um backbone de extração de características. Neste artigo, é introduzido o Change State Space Model, projetado especificamente para detecção de mudanças ao focar nas alterações relevantes entre imagens bi-temporais, filtrando efetivamente informações irrelevantes. Ao concentrar-se apenas nas características alteradas, o número de parâmetros da rede é reduzido, aumentando significativamente a eficiência computacional enquanto mantém alto desempenho de detecção e robustez contra degradação da entrada. O modelo proposto foi avaliado em três conjuntos de dados de referência, onde superou ConvNets, ViTs e contrapartes baseadas em Mamba com uma fração de sua complexidade computacional. A implementação estará disponível em https://github.com/Elman295/CSSM após a aceitação.
English
Despite their frequent use for change detection, both ConvNets and Vision
transformers (ViT) exhibit well-known limitations, namely the former struggle
to model long-range dependencies while the latter are computationally
inefficient, rendering them challenging to train on large-scale datasets.
Vision Mamba, an architecture based on State Space Models has emerged as an
alternative addressing the aforementioned deficiencies and has been already
applied to remote sensing change detection, though mostly as a feature
extracting backbone. In this article the Change State Space Model is
introduced, that has been specifically designed for change detection by
focusing on the relevant changes between bi-temporal images, effectively
filtering out irrelevant information. By concentrating solely on the changed
features, the number of network parameters is reduced, enhancing significantly
computational efficiency while maintaining high detection performance and
robustness against input degradation. The proposed model has been evaluated via
three benchmark datasets, where it outperformed ConvNets, ViTs, and Mamba-based
counterparts at a fraction of their computational complexity. The
implementation will be made available at https://github.com/Elman295/CSSM upon
acceptance.Summary
AI-Generated Summary