ChatPaper.aiChatPaper

AFRDA:ドメイン適応型セマンティックセグメンテーションのための注意深い特徴洗練

AFRDA: Attentive Feature Refinement for Domain Adaptive Semantic Segmentation

July 23, 2025
著者: Md. Al-Masrur Khan, Durgakant Pushp, Lantao Liu
cs.AI

要旨

教師なしドメイン適応型セマンティックセグメンテーション(UDA-SS)では、モデルはラベル付きのソースドメインデータ(例:合成画像)で学習され、ターゲットドメイン(例:実世界の画像)のアノテーションにアクセスすることなく、未ラベルのターゲットドメインに適応されます。既存のUDA-SS手法は、細かい局所的な詳細とグローバルな文脈情報のバランスを取ることに苦労し、複雑な領域でのセグメンテーションエラーを引き起こすことがよくあります。これを解決するために、我々はAdaptive Feature Refinement(AFR)モジュールを導入します。このモジュールは、低解像度のロジットから得られるセマンティックプライアを使用して高解像度の特徴を洗練し、セグメンテーションの精度を向上させます。AFRはまた、高周波成分を統合し、細かい構造を捉え、重要な境界情報を提供することで、オブジェクトの輪郭を改善します。さらに、AFRは不確実性駆動型の注意を通じて局所情報とグローバル情報を適応的にバランスさせ、誤分類を減らします。その軽量な設計により、HRDAベースのUDA手法にシームレスに統合され、最先端のセグメンテーションパフォーマンスを実現します。我々のアプローチは、既存のUDA-SS手法をGTA V → Cityscapesで1.05% mIoU、Synthia → Cityscapesで1.04% mIoU向上させます。我々のフレームワークの実装は以下で利用可能です:https://github.com/Masrur02/AFRDA
English
In Unsupervised Domain Adaptive Semantic Segmentation (UDA-SS), a model is trained on labeled source domain data (e.g., synthetic images) and adapted to an unlabeled target domain (e.g., real-world images) without access to target annotations. Existing UDA-SS methods often struggle to balance fine-grained local details with global contextual information, leading to segmentation errors in complex regions. To address this, we introduce the Adaptive Feature Refinement (AFR) module, which enhances segmentation accuracy by refining highresolution features using semantic priors from low-resolution logits. AFR also integrates high-frequency components, which capture fine-grained structures and provide crucial boundary information, improving object delineation. Additionally, AFR adaptively balances local and global information through uncertaintydriven attention, reducing misclassifications. Its lightweight design allows seamless integration into HRDA-based UDA methods, leading to state-of-the-art segmentation performance. Our approach improves existing UDA-SS methods by 1.05% mIoU on GTA V --> Cityscapes and 1.04% mIoU on Synthia-->Cityscapes. The implementation of our framework is available at: https://github.com/Masrur02/AFRDA
PDF12July 29, 2025