ChatPaper.aiChatPaper

CATS-V2V: Een real-world dataset voor voertuig-naar-voertuig cooperatieve perceptie met complexe nadelige verkeersscenario's

CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios

November 14, 2025
Auteurs: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li
cs.AI

Samenvatting

Vehicle-to-Vehicle (V2V)-coöperatieve perceptie heeft een groot potentieel om de prestaties van autonoom rijden te verbeteren door beperkingen in de waarneming te overwinnen in complexe, ongunstige verkeersscenario's (Complex Adverse Traffic Scenarios, CATS). Tegelijkertijd vormen data de fundamentele infrastructuur voor moderne AI-systemen voor autonoom rijden. Vanwege de strenge eisen voor datacollectie richten bestaande datasets zich echter voornamelijk op gewone verkeerssituaties, wat de voordelen van coöperatieve perceptie beperkt. Om deze uitdaging aan te pakken, introduceren wij CATS-V2V, de eerste real-world dataset in zijn soort voor V2V-coöperatieve perceptie onder complexe, ongunstige verkeersomstandigheden. De dataset werd verzameld door twee hardwarematig tijdsgesynchroniseerde voertuigen, waarbij 10 weers- en lichtomstandigheden in 10 verschillende locaties zijn vastgelegd. De dataset bestaat uit 100 clips met 60.000 frames van 10 Hz LiDAR-puntenwolken en 1,26 miljoen multi-view 30 Hz camerabeelden, samen met 750.000 geanonimiseerde maar hoogprecisie RTK-gefixeerde GNSS- en IMU-records. Hierbij leveren wij tijdsconsistente 3D bounding box-annotaties voor objecten, evenals statische scènes om een 4D BEV-representatie (Bird’s-Eye View) te construeren. Op basis hiervan stellen wij een op doelen gebaseerde temporele alignatiemethode voor, die ervoor zorgt dat alle objecten nauwkeurig zijn uitgelijnd across alle sensormodaliteiten. Wij hopen dat CATS-V2V, de grootste, meest ondersteunende en hoogst kwalitatieve dataset in zijn soort tot op heden, de autonome rijgemeenschap zal ondersteunen bij gerelateerde taken.
English
Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.
PDF02December 1, 2025