Modelos de Espacio de Estados para la Detección de Cambios en Teledetección
Change State Space Models for Remote Sensing Change Detection
April 15, 2025
Autores: Elman Ghazaei, Erchan Aptoula
cs.AI
Resumen
A pesar de su uso frecuente para la detección de cambios, tanto las ConvNets como los Transformers de Visión (ViT) presentan limitaciones bien conocidas: las primeras tienen dificultades para modelar dependencias de largo alcance, mientras que los segundos son computacionalmente ineficientes, lo que dificulta su entrenamiento en conjuntos de datos a gran escala. Vision Mamba, una arquitectura basada en Modelos de Espacio de Estados, ha surgido como una alternativa que aborda estas deficiencias y ya se ha aplicado en la detección de cambios en teledetección, aunque principalmente como un backbone para la extracción de características. En este artículo se presenta el Modelo de Espacio de Estados para Cambios (Change State Space Model), diseñado específicamente para la detección de cambios al centrarse en las variaciones relevantes entre imágenes bi-temporales, filtrando eficazmente la información irrelevante. Al concentrarse únicamente en las características modificadas, se reduce el número de parámetros de la red, mejorando significativamente la eficiencia computacional mientras se mantiene un alto rendimiento en la detección y robustez frente a la degradación de la entrada. El modelo propuesto ha sido evaluado en tres conjuntos de datos de referencia, donde superó a las ConvNets, ViTs y contrapartes basadas en Mamba con una fracción de su complejidad computacional. La implementación estará disponible en https://github.com/Elman295/CSSM tras su aceptación.
English
Despite their frequent use for change detection, both ConvNets and Vision
transformers (ViT) exhibit well-known limitations, namely the former struggle
to model long-range dependencies while the latter are computationally
inefficient, rendering them challenging to train on large-scale datasets.
Vision Mamba, an architecture based on State Space Models has emerged as an
alternative addressing the aforementioned deficiencies and has been already
applied to remote sensing change detection, though mostly as a feature
extracting backbone. In this article the Change State Space Model is
introduced, that has been specifically designed for change detection by
focusing on the relevant changes between bi-temporal images, effectively
filtering out irrelevant information. By concentrating solely on the changed
features, the number of network parameters is reduced, enhancing significantly
computational efficiency while maintaining high detection performance and
robustness against input degradation. The proposed model has been evaluated via
three benchmark datasets, where it outperformed ConvNets, ViTs, and Mamba-based
counterparts at a fraction of their computational complexity. The
implementation will be made available at https://github.com/Elman295/CSSM upon
acceptance.Summary
AI-Generated Summary