ChatPaper.aiChatPaper

CATS-V2V: Un dataset di percezione cooperativa veicolo-veicolo in scenari reali con condizioni di traffico avverse complesse

CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios

November 14, 2025
Autori: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li
cs.AI

Abstract

La percezione cooperativa veicolo-veicolo (V2V) ha un grande potenziale per migliorare le prestazioni della guida autonoma superando i limiti percettivi negli scenari di traffico complessi e avversi (CATS). Nel contempo, i dati costituiscono l'infrastruttura fondamentale per l'IA moderna della guida autonoma. Tuttavia, a causa dei rigorosi requisiti di raccolta dati, i dataset esistenti si concentrano principalmente su scenari di traffico ordinari, limitando i vantaggi della percezione cooperativa. Per affrontare questa sfida, presentiamo CATS-V2V, il primo dataset reale al mondo per la percezione cooperativa V2V in scenari di traffico complessi e avversi. Il dataset è stato raccolto da due veicoli sincronizzati hardware temporalmente, coprendo 10 condizioni meteorologiche e di illuminazione in 10 località diverse. Il dataset da 100 clip include 60.000 frame di nuvole di punti LiDAR a 10 Hz e 1,26 milioni di immagini multi-view da telecamera a 30 Hz, insieme a 750.000 record GNSS e IMU anonimi ma ad alta precisione fissati con RTK. Corrispondentemente, forniamo annotazioni di bounding box 3D temporalmente consistenti per gli oggetti, nonché scene statiche per costruire una rappresentazione BEV 4D. Su questa base, proponiamo un metodo di allineamento temporale basato su target, garantendo che tutti gli oggetti siano precisamente allineati attraverso tutte le modalità sensoriali. Speriamo che CATS-V2V, il dataset più ampio, più supportivo e di qualità più elevata del suo genere finora, possa avvantaggiare la comunità della guida autonoma nei compiti correlati.
English
Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.
PDF02December 1, 2025