ChatPaper.aiChatPaper

Lernen der baumkronenbasierten Bildsegmentierung aus verbesserten lidarbasierten Pseudolabels

Learning Image-based Tree Crown Segmentation from Enhanced Lidar-based Pseudo-labels

February 13, 2026
papers.authors: Julius Pesonen, Stefan Rua, Josef Taher, Niko Koivumäki, Xiaowei Yu, Eija Honkavaara
cs.AI

papers.abstract

Die Kartierung einzelner Baumkronen ist entscheidend für Aufgaben wie die Führung von städtischen Baumkatastern und die Überwachung des Waldgesundheitszustands, was uns hilft, unsere Umwelt zu verstehen und zu schützen. Die automatische Abgrenzung der Kronen voneinander in Luftbildaufnahmen ist jedoch aufgrund von Faktoren wie der Textur und teilweisen Überlappungen von Baumkronen eine Herausforderung. In dieser Studie stellen wir eine Methode vor, um Deep-Learning-Modelle zu trainieren, die einzelne Bäume in RGB- und multispektralen Bildern segmentieren und voneinander trennen, wobei Pseudo-Labels verwendet werden, die aus luftgestützten Laserscanning-Daten (ALS) abgeleitet werden. Unsere Studie zeigt, dass diese ALS-abgeleiteten Pseudo-Labels mit einem Zero-Shot-Instanzensegmentierungsmodell, Segment Anything Model 2 (SAM 2), verbessert werden können. Unser Ansatz bietet eine Möglichkeit, domainspezifische Trainingsannotationen für optische Bilddaten zu erhalten, ohne manuelle Annotationkosten, was zu Segmentierungsmodellen führt, die alle verfügbaren Modelle übertreffen, die für einen allgemeinen Einsatzbereich für dieselbe Aufgabe entwickelt wurden.
English
Mapping individual tree crowns is essential for tasks such as maintaining urban tree inventories and monitoring forest health, which help us understand and care for our environment. However, automatically separating the crowns from each other in aerial imagery is challenging due to factors such as the texture and partial tree crown overlaps. In this study, we present a method to train deep learning models that segment and separate individual trees from RGB and multispectral images, using pseudo-labels derived from aerial laser scanning (ALS) data. Our study shows that the ALS-derived pseudo-labels can be enhanced using a zero-shot instance segmentation model, Segment Anything Model 2 (SAM 2). Our method offers a way to obtain domain-specific training annotations for optical image-based models without any manual annotation cost, leading to segmentation models which outperform any available models which have been targeted for general domain deployment on the same task.
PDF12February 17, 2026