Aprendizaje de la Segmentación de Copas de Árboles Basada en Imágenes a partir de Pseudolabels Mejorados Derivados de Lidar
Learning Image-based Tree Crown Segmentation from Enhanced Lidar-based Pseudo-labels
February 13, 2026
Autores: Julius Pesonen, Stefan Rua, Josef Taher, Niko Koivumäki, Xiaowei Yu, Eija Honkavaara
cs.AI
Resumen
La cartografía individual de copas de árboles es fundamental para tareas como el mantenimiento de inventarios arbóreos urbanos y el monitoreo de la salud forestal, lo cual nos ayuda a comprender y cuidar nuestro medio ambiente. Sin embargo, la separación automática de las copas entre sí en imágenes aéreas es un desafío debido a factores como la textura y los solapamientos parciales de las copas. En este estudio, presentamos un método para entrenar modelos de aprendizaje profundo que segmentan y separan árboles individuales a partir de imágenes RGB y multiespectrales, utilizando pseudoetiquetas derivadas de datos de escaneo láser aéreo (ALS). Nuestro estudio demuestra que estas pseudoetiquetas derivadas de ALS pueden mejorarse utilizando un modelo de segmentación de instancias de cero disparos, el Segment Anything Model 2 (SAM 2). Nuestro método ofrece una forma de obtener anotaciones de entrenamiento específicas del dominio para modelos basados en imágenes ópticas sin ningún costo de anotación manual, lo que da como resultado modelos de segmentación que superan a los modelos disponibles diseñados para despliegue en dominios generales para la misma tarea.
English
Mapping individual tree crowns is essential for tasks such as maintaining urban tree inventories and monitoring forest health, which help us understand and care for our environment. However, automatically separating the crowns from each other in aerial imagery is challenging due to factors such as the texture and partial tree crown overlaps. In this study, we present a method to train deep learning models that segment and separate individual trees from RGB and multispectral images, using pseudo-labels derived from aerial laser scanning (ALS) data. Our study shows that the ALS-derived pseudo-labels can be enhanced using a zero-shot instance segmentation model, Segment Anything Model 2 (SAM 2). Our method offers a way to obtain domain-specific training annotations for optical image-based models without any manual annotation cost, leading to segmentation models which outperform any available models which have been targeted for general domain deployment on the same task.