ChatPaper.aiChatPaper

CATS-V2V: Набор данных для кооперативного восприятия между транспортными средствами в реальных условиях со сложными неблагоприятными дорожными сценариями

CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios

November 14, 2025
Авторы: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li
cs.AI

Аннотация

Кооперативное восприятие по схеме «транспорт-транспорт» (V2V) обладает значительным потенциалом для повышения эффективности автономного вождения за счет преодоления ограничений систем восприятия в сложных неблагоприятных дорожных сценариях (Complex Adverse Traffic Scenarios, CATS). В то же время данные служат фундаментальной инфраструктурой для современных систем искусственного интеллекта автономных транспортных средств. Однако из-за строгих требований к сбору данных существующие наборы данных в основном сосредоточены на обычных дорожных сценариях, что ограничивает преимущества кооперативного восприятия. Для решения этой проблемы мы представляем CATS-V2V — первую в своем роде базу данных, собранную в реальных условиях, для кооперативного восприятия V2V в сложных неблагоприятных дорожных сценариях. Набор данных был собран двумя аппаратно синхронизированными по времени транспортными средствами и охватывает 10 погодных и световых условий в 10 различных локациях. Набор данных из 100 клипов включает 60 тысяч кадров лидарных облаков точек с частотой 10 Гц и 1,26 миллиона многовидовых изображений с камер с частотой 30 Гц, а также 750 тысяч анонимизированных, но высокоточных записей GNSS с фиксацией RTK и данных IMU. Соответственно, мы предоставляем временно-согласованные аннотации 3D ограничивающих рамок для объектов, а также статических сцен для построения 4D BEV-представления. На этой основе мы предлагаем целевой метод временного выравнивания, обеспечивающий точную синхронизацию всех объектов across всеми сенсорными модальностями. Мы надеемся, что CATS-V2V — крупнейший, наиболее комплексный и качественный на сегодняшний день набор данных своего рода — послужит на пользу сообществу разработчиков автономного вождения в решении связанных задач.
English
Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.
PDF02December 1, 2025