Обучение сегментации крон деревьев на основе изображений с использованием улучшенных псевдоразметок на базе лидарных данных
Learning Image-based Tree Crown Segmentation from Enhanced Lidar-based Pseudo-labels
February 13, 2026
Авторы: Julius Pesonen, Stefan Rua, Josef Taher, Niko Koivumäki, Xiaowei Yu, Eija Honkavaara
cs.AI
Аннотация
Картографирование отдельных крон деревьев играет ключевую роль в таких задачах, как ведение реестров городских насаждений и мониторинг состояния лесов, что помогает нам понимать и заботиться об окружающей среде. Однако автоматическое разделение крон на аэрофотоснимках представляет сложность из-за таких факторов, как текстура изображения и частичное перекрытие крон. В данном исследовании представлен метод обучения моделей глубокого обучения для сегментации и разделения отдельных деревьев на RGB и мультиспектральных изображениях с использованием псевдоразметки, полученной на основе данных аэролазерного сканирования (ALS). Наше исследование демонстрирует, что псевдоразметку на основе ALS можно улучшить с помощью zero-shot модели семантической сегментации Segment Anything Model 2 (SAM 2). Предложенный метод позволяет получать предметно-ориентированные обучающие аннотации для моделей, работающих с оптическими изображениями, без затрат на ручную разметку, что приводит к созданию моделей сегментации, превосходящих по точности доступные модели, предназначенные для общего применения в той же задаче.
English
Mapping individual tree crowns is essential for tasks such as maintaining urban tree inventories and monitoring forest health, which help us understand and care for our environment. However, automatically separating the crowns from each other in aerial imagery is challenging due to factors such as the texture and partial tree crown overlaps. In this study, we present a method to train deep learning models that segment and separate individual trees from RGB and multispectral images, using pseudo-labels derived from aerial laser scanning (ALS) data. Our study shows that the ALS-derived pseudo-labels can be enhanced using a zero-shot instance segmentation model, Segment Anything Model 2 (SAM 2). Our method offers a way to obtain domain-specific training annotations for optical image-based models without any manual annotation cost, leading to segmentation models which outperform any available models which have been targeted for general domain deployment on the same task.