CATS-V2V: Un Conjunto de Datos de Percepción Cooperativa Vehículo a Vehículo del Mundo Real con Escenarios de Tráfico Adversos Complejos
CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios
November 14, 2025
Autores: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li
cs.AI
Resumen
La percepción cooperativa entre vehículos (V2V) tiene un gran potencial para mejorar el rendimiento de la conducción autónoma al superar las limitaciones de percepción en escenarios de tráfico adversos complejos (CATS). Mientras tanto, los datos sirven como infraestructura fundamental para la IA moderna de conducción autónoma. Sin embargo, debido a los estrictos requisitos de recopilación de datos, los conjuntos de datos existentes se centran principalmente en escenarios de tráfico ordinarios, lo que limita los beneficios de la percepción cooperativa. Para abordar este desafío, presentamos CATS-V2V, el primer conjunto de datos del mundo real para percepción cooperativa V2V bajo escenarios de tráfico adversos complejos. El conjunto de datos fue recopilado por dos vehículos sincronizados temporalmente en hardware, cubriendo 10 condiciones climáticas y de iluminación en 10 ubicaciones diversas. El conjunto de datos de 100 clips incluye 60.000 fotogramas de nubes de puntos LiDAR de 10 Hz y 1,26 millones de imágenes de cámara multi-vista de 30 Hz, junto con 750.000 registros anonimizados pero de alta precisión de GNSS con corrección RTK e IMU. Correspondientemente, proporcionamos anotaciones de cajas delimitadoras 3D consistentes en el tiempo para objetos, así como escenas estáticas para construir una representación BEV 4D. Sobre esta base, proponemos un método de alineación temporal basado en objetivos, garantizando que todos los objetos estén precisamente alineados en todas las modalidades de sensores. Esperamos que CATS-V2V, el conjunto de datos más grande, más completo y de mayor calidad de su tipo hasta la fecha, beneficie a la comunidad de conducción autónoma en tareas relacionadas.
English
Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.