ChatPaper.aiChatPaper

Обучение базовых моделей для видео с использованием NVIDIA NeMo

Training Video Foundation Models with NVIDIA NeMo

March 17, 2025
Авторы: Zeeshan Patel, Ethan He, Parth Mannan, Xiaowei Ren, Ryan Wolf, Niket Agarwal, Jacob Huffman, Zhuoyao Wang, Carl Wang, Jack Chang, Yan Bai, Tommy Huang, Linnan Wang, Sahil Jain, Shanmugam Ramasamy, Joseph Jennings, Ekaterina Sirazitdinova, Oleg Sudakov, Mingyuan Ma, Bobby Chen, Forrest Lin, Hao Wang, Vasanth Rao Naik Sabavat, Sriharsha Niverty, Rong Ou, Pallab Bhattacharya, David Page, Nima Tajbakhsh, Ashwath Aithal
cs.AI

Аннотация

Видеофундаментальные модели (VFMs) недавно начали использоваться для симуляции реального мира с целью обучения физических ИИ-систем и создания креативных визуальных решений. Однако существуют значительные трудности в обучении крупномасштабных высококачественных VFMs, способных генерировать видео высокого качества. Мы представляем масштабируемый, открытый конвейер обучения VFM с использованием NVIDIA NeMo, который обеспечивает ускоренное формирование видеодатасетов, загрузку мультимодальных данных, а также параллелизованное обучение и вывод видео-диффузионных моделей. Также мы предоставляем всесторонний анализ производительности, выделяя лучшие практики для эффективного обучения и вывода VFM.
English
Video Foundation Models (VFMs) have recently been used to simulate the real world to train physical AI systems and develop creative visual experiences. However, there are significant challenges in training large-scale, high quality VFMs that can generate high-quality videos. We present a scalable, open-source VFM training pipeline with NVIDIA NeMo, providing accelerated video dataset curation, multimodal data loading, and parallelized video diffusion model training and inference. We also provide a comprehensive performance analysis highlighting best practices for efficient VFM training and inference.

Summary

AI-Generated Summary

PDF62March 18, 2025