ChatPaper.aiChatPaper

Imparare a Identificare Oggetti Fuori Distribuzione per la Segmentazione di Anomalie nella LiDAR 3D

Learning to Identify Out-of-Distribution Objects for 3D LiDAR Anomaly Segmentation

April 26, 2026
Autori: Simone Mosco, Daniel Fusaro, Alberto Pretto
cs.AI

Abstract

La comprensione dell'ambiente circostante è fondamentale per la guida autonoma e la percezione robotica. Distinguere tra classi note e oggetti mai visti in precedenza è cruciale in ambienti del mondo reale, come avviene nell'Anomaly Segmentation. Tuttavia, la ricerca nel campo 3D rimane limitata, con la maggior parte degli approcci esistenti che applicano tecniche di post-elaborazione derivate dalla visione 2D. Per colmare questa lacuna, proponiamo un nuovo approccio efficiente che opera direttamente nello spazio delle feature, modellando la distribuzione delle feature delle classi inlier per vincolare i campioni anomali. Inoltre, l'unico dataset pubblico disponibile per l'anomaly segmentation con LiDAR 3D contiene scenari semplici, con poche istanze anomale, e presenta un grave divario di dominio a causa della risoluzione del suo sensore. Per colmare questo divario, introduciamo una serie di dataset misti reali-sintetici per l'anomaly segmentation con LiDAR 3D, basati su benchmark consolidati di segmentazione semantica, con molteplici oggetti out-of-distribution e ambienti diversificati e complessi. Esperimenti estensivi dimostrano che il nostro approccio ottiene risultati all'avanguardia e competitivi rispettivamente sul dataset reale esistente e sui nuovi dataset misti introdotti, convalidando l'efficacia del nostro metodo e l'utilità dei dataset proposti. Il codice e i dataset sono disponibili all'indirizzo https://simom0.github.io/lido-page/.
English
Understanding the surrounding environment is fundamental in autonomous driving and robotic perception. Distinguishing between known classes and previously unseen objects is crucial in real-world environments, as done in Anomaly Segmentation. However, research in the 3D field remains limited, with most existing approaches applying post-processing techniques from 2D vision. To cover this lack, we propose a new efficient approach that directly operates in the feature space, modeling the feature distribution of inlier classes to constrain anomalous samples. Moreover, the only publicly available 3D LiDAR anomaly segmentation dataset contains simple scenarios, with few anomaly instances, and exhibits a severe domain gap due to its sensor resolution. To bridge this gap, we introduce a set of mixed real-synthetic datasets for 3D LiDAR anomaly segmentation, built upon established semantic segmentation benchmarks, with multiple out-of-distribution objects and diverse, complex environments. Extensive experiments demonstrate that our approach achieves state-of-the-art and competitive results on the existing real-world dataset and the newly introduced mixed datasets, respectively, validating the effectiveness of our method and the utility of the proposed datasets. Code and datasets are available at https://simom0.github.io/lido-page/.
PDF21April 29, 2026