CATS-V2V : Un jeu de données de perception coopérative véhicule-à-véhicule en conditions réelles avec scénarios de trafic adverse complexes
CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios
November 14, 2025
papers.authors: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li
cs.AI
papers.abstract
La perception coopérative véhicule-à-véhicule (V2V) présente un potentiel considérable pour améliorer les performances de la conduite autonome en surmontant les limitations de perception dans les scénarios de trafic complexes et défavorables (CATS). Parallèlement, les données constituent l'infrastructure fondamentale de l'intelligence artificielle moderne pour la conduite autonome. Cependant, en raison d'exigences strictes en matière de collecte de données, les ensembles de données existants se concentrent principalement sur des scénarios de trafic ordinaires, limitant ainsi les avantages de la perception coopérative. Pour relever ce défi, nous présentons CATS-V2V, le premier jeu de données réel pour la perception coopérative V2V dans des conditions de trafic complexes et défavorables. Ce jeu de données a été collecté par deux véhicules synchronisés matériellement, couvrant 10 conditions météorologiques et d'éclairage réparties sur 10 sites géographiques diversifiés. L'ensemble de 100 séquences comprend 60 000 images de nuages de points LiDAR à 10 Hz et 1,26 million d'images multi-vues caméra à 30 Hz, accompagnées de 750 000 enregistrements GNSS et IMU anonymisés mais de haute précision, fixés par RTK. Corrélativement, nous fournissons des annotations de boîtes englobantes 3D temporellement cohérentes pour les objets, ainsi que des scènes statiques pour construire une représentation BEV 4D. Sur cette base, nous proposons une méthode d'alignement temporel basée sur les cibles, garantissant que tous les objets sont parfaitement alignés sur toutes les modalités de capteurs. Nous espérons que CATS-V2V, le jeu de données de ce type le plus vaste, le plus complet et de la plus haute qualité à ce jour, bénéficiera à la communauté de la conduite autonome dans les tâches connexes.
English
Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.