CATS-V2V: Um Conjunto de Dados de Percepção Cooperativa Veículo-a-Veículo do Mundo Real com Cenários Complexos de Tráfego Adverso
CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios
November 14, 2025
Autores: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li
cs.AI
Resumo
A perceção cooperativa veículo-a-veículo (V2V) possui um grande potencial para melhorar o desempenho da condução autónoma, superando as limitações de perceção em cenários de tráfego adversos complexos (CATS). Entretanto, os dados servem como infraestrutura fundamental para a IA moderna de condução autónoma. No entanto, devido a requisitos rigorosos de recolha de dados, os conjuntos de dados existentes concentram-se principalmente em cenários de tráfego comuns, limitando os benefícios da perceção cooperativa. Para enfrentar este desafio, apresentamos o CATS-V2V, o primeiro conjunto de dados do mundo real do seu género para perceção cooperativa V2V sob cenários de tráfego adversos complexos. O conjunto de dados foi recolhido por dois veículos sincronizados temporalmente em hardware, abrangendo 10 condições meteorológicas e de iluminação em 10 localizações diversas. O conjunto de 100 clipes inclui 60 mil frames de nuvens de pontos LiDAR a 10 Hz e 1,26 milhões de imagens de câmara multi-view a 30 Hz, juntamente com 750 mil registos anónimos mas de alta precisão de GNSS e IMU fixados por RTK. Correspondentemente, fornecemos anotações de caixas delimitadoras 3D temporalmente consistentes para objetos, bem como cenas estáticas para construir uma representação 4D em vista de cima (BEV). Com base nisto, propomos um método de alinhamento temporal baseado em alvos, garantindo que todos os objetos estejam precisamente alinhados em todas as modalidades de sensores. Esperamos que o CATS-V2V, o conjunto de dados da sua categoria de maior escala, mais abrangente e de mais alta qualidade até à data, beneficie a comunidade de condução autónoma em tarefas relacionadas.
English
Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.