ChatPaper.aiChatPaper

画像ベースの樹冠セグメンテーションの学習:強化されたLiDARベースの擬似ラベルを用いて

Learning Image-based Tree Crown Segmentation from Enhanced Lidar-based Pseudo-labels

February 13, 2026
著者: Julius Pesonen, Stefan Rua, Josef Taher, Niko Koivumäki, Xiaowei Yu, Eija Honkavaara
cs.AI

要旨

個々の樹冠のマッピングは、都市の樹木インベントリの維持や森林の健全性のモニタリングなど、環境の理解と保全に寄与する重要な課題である。しかし、航空画像から樹冠を自動的に分離することは、テクスチャや樹冠の部分的重複などの要因により困難である。本研究では、航空レーザー測量(ALS)データから得られた擬似ラベルを用いて、RGB画像およびマルチスペクトル画像から個々の樹木をセグメンテーション・分離する深層学習モデルを訓練する手法を提案する。ALSから得られた擬似ラベルは、ゼロショットインスタンスセグメンテーションモデルであるSegment Anything Model 2(SAM 2)を用いて強化できることを示す。本手法は、手動アノテーションを一切必要とせず、光学画像ベースのモデル向けにドメイン特化した訓練アノテーションを取得する方法を提供し、同じタスク向けに一般領域で展開された既存のあらゆるモデルを性能で凌駕するセグメンテーションモデルを実現する。
English
Mapping individual tree crowns is essential for tasks such as maintaining urban tree inventories and monitoring forest health, which help us understand and care for our environment. However, automatically separating the crowns from each other in aerial imagery is challenging due to factors such as the texture and partial tree crown overlaps. In this study, we present a method to train deep learning models that segment and separate individual trees from RGB and multispectral images, using pseudo-labels derived from aerial laser scanning (ALS) data. Our study shows that the ALS-derived pseudo-labels can be enhanced using a zero-shot instance segmentation model, Segment Anything Model 2 (SAM 2). Our method offers a way to obtain domain-specific training annotations for optical image-based models without any manual annotation cost, leading to segmentation models which outperform any available models which have been targeted for general domain deployment on the same task.
PDF12February 17, 2026