RemoteVAR: リモートセンシング変化検出のための自己回帰的視覚モデリング
RemoteVAR: Autoregressive Visual Modeling for Remote Sensing Change Detection
January 17, 2026
著者: Yilmaz Korkmaz, Vishal M. Patel
cs.AI
要旨
リモートセンシング変化検出は、2時点間のシーン変化の位置特定と特徴付けを目的とし、環境モニタリングや災害評価などの応用において中心的な役割を果たす。一方、視覚的自己回帰モデル(VAR)は近年、印象的な画像生成能力を示しているが、制御性の弱さ、最適とは言えない密な予測性能、および曝露バイアスにより、ピクセルレベルの識別タスクへの応用は限られている。本論文では、これらの課題を解決する新しいVARベースの変化検出フレームワークであるRemoteVARを提案する。具体的には、クロスアテンションを介したマルチ解像度融合二時相特徴に基づく自己回帰予測と、変化マップ予測に特化して設計された自己回帰型学習戦略を採用する。標準的な変化検出ベンチマークによる大規模な実験により、RemoteVARが強力な拡散ベースおよびトランスフォーマーベースのベースラインを一貫して大幅に上回り、リモートセンシング変化検出における競争力のある自己回帰型手法として確立されることを示す。コードはhttps://github.com/yilmazkorkmaz1/RemoteVAR で公開予定である。
English
Remote sensing change detection aims to localize and characterize scene changes between two time points and is central to applications such as environmental monitoring and disaster assessment. Meanwhile, visual autoregressive models (VARs) have recently shown impressive image generation capability, but their adoption for pixel-level discriminative tasks remains limited due to weak controllability, suboptimal dense prediction performance and exposure bias. We introduce RemoteVAR, a new VAR-based change detection framework that addresses these limitations by conditioning autoregressive prediction on multi-resolution fused bi-temporal features via cross-attention, and by employing an autoregressive training strategy designed specifically for change map prediction. Extensive experiments on standard change detection benchmarks show that RemoteVAR delivers consistent and significant improvements over strong diffusion-based and transformer-based baselines, establishing a competitive autoregressive alternative for remote sensing change detection. Code will be available https://github.com/yilmazkorkmaz1/RemoteVAR{here}.