ChatPaper.aiChatPaper

Apprentissage de la segmentation de couronnes d'arbres à partir d'images en utilisant des pseudo-labels améliorés issus du lidar

Learning Image-based Tree Crown Segmentation from Enhanced Lidar-based Pseudo-labels

February 13, 2026
papers.authors: Julius Pesonen, Stefan Rua, Josef Taher, Niko Koivumäki, Xiaowei Yu, Eija Honkavaara
cs.AI

papers.abstract

La cartographie des couronnes individuelles des arbres est essentielle pour des tâches telles que la mise à jour des inventaires d'arbres urbains et le suivi de la santé des forêts, qui nous aident à comprendre et à protéger notre environnement. Cependant, la séparation automatique des couronnes les unes des autres dans les images aériennes est difficile en raison de facteurs tels que la texture et les chevauchements partiels des cimes. Dans cette étude, nous présentons une méthode pour entraîner des modèles d'apprentissage profond qui segmentent et séparent les arbres individuels à partir d'images RVB et multispectrales, en utilisant des pseudo-labels dérivés de données de scan laser aéroporté (ALS). Notre étude montre que ces pseudo-labels issus de l'ALS peuvent être améliorés à l'aide d'un modèle de segmentation d'instances sans apprentissage préalable, le Segment Anything Model 2 (SAM 2). Notre méthode offre un moyen d'obtenir des annotations d'entraînement spécifiques au domaine pour les modèles basés sur l'imagerie optique sans aucun coût d'annotation manuelle, conduisant à des modèles de segmentation qui surpassent les modèles disponibles conçus pour un déploiement dans un domaine général sur la même tâche.
English
Mapping individual tree crowns is essential for tasks such as maintaining urban tree inventories and monitoring forest health, which help us understand and care for our environment. However, automatically separating the crowns from each other in aerial imagery is challenging due to factors such as the texture and partial tree crown overlaps. In this study, we present a method to train deep learning models that segment and separate individual trees from RGB and multispectral images, using pseudo-labels derived from aerial laser scanning (ALS) data. Our study shows that the ALS-derived pseudo-labels can be enhanced using a zero-shot instance segmentation model, Segment Anything Model 2 (SAM 2). Our method offers a way to obtain domain-specific training annotations for optical image-based models without any manual annotation cost, leading to segmentation models which outperform any available models which have been targeted for general domain deployment on the same task.
PDF12February 17, 2026