Het leren van op afbeeldingen gebaseerde kroonsegmentatie van bomen vanuit verbeterde op lidar gebaseerde pseudo-labels
Learning Image-based Tree Crown Segmentation from Enhanced Lidar-based Pseudo-labels
February 13, 2026
Auteurs: Julius Pesonen, Stefan Rua, Josef Taher, Niko Koivumäki, Xiaowei Yu, Eija Honkavaara
cs.AI
Samenvatting
Het in kaart brengen van individuele boomkronen is essentieel voor taken zoals het bijhouden van stedelijke bomenbestanden en het monitoren van de gezondheid van bossen, wat ons helpt ons leefmilieu te begrijpen en te verzorgen. Het automatisch van elkaar scheiden van de kronen op luchtfoto's is echter een uitdaging door factoren zoals de textuur en gedeeltelijke overlapping van boomkronen. In deze studie presenteren we een methode om deep learning-modellen te trainen die individuele bomen segmenteren en scheiden op RGB- en multispetrale beelden, met behulp van pseudo-labels afgeleid van lucht-laserscanning (ALS) data. Onze studie toont aan dat de op ALS gebaseerde pseudo-labels verbeterd kunnen worden met een zero-shot instance segmentatiemodel, Segment Anything Model 2 (SAM 2). Onze methode biedt een manier om domeinspecifieke trainingsannotaties te verkrijgen voor op optische beelden gebaseerde modellen, zonder enige kosten voor handmatige annotatie, wat leidt tot segmentatiemodellen die beter presteren dan beschikbare modellen die zijn ontwikkeld voor algemene inzet voor dezelfde taak.
English
Mapping individual tree crowns is essential for tasks such as maintaining urban tree inventories and monitoring forest health, which help us understand and care for our environment. However, automatically separating the crowns from each other in aerial imagery is challenging due to factors such as the texture and partial tree crown overlaps. In this study, we present a method to train deep learning models that segment and separate individual trees from RGB and multispectral images, using pseudo-labels derived from aerial laser scanning (ALS) data. Our study shows that the ALS-derived pseudo-labels can be enhanced using a zero-shot instance segmentation model, Segment Anything Model 2 (SAM 2). Our method offers a way to obtain domain-specific training annotations for optical image-based models without any manual annotation cost, leading to segmentation models which outperform any available models which have been targeted for general domain deployment on the same task.