Apollo: Uma Exploração da Compreensão de Vídeo em Modelos Multimodais GrandesApollo: An Exploration of Video Understanding in Large Multimodal Models
Apesar da rápida integração das capacidades de percepção de vídeo em Modelos Multimodais de Grande Escala (LMMs), os mecanismos subjacentes que impulsionam a compreensão de vídeo ainda são pouco compreendidos. Consequentemente, muitas decisões de design nesse domínio são tomadas sem justificativa ou análise adequada. O alto custo computacional de treinar e avaliar tais modelos, juntamente com a limitada pesquisa aberta, dificulta o desenvolvimento de LMMs de vídeo. Para lidar com isso, apresentamos um estudo abrangente que ajuda a descobrir o que impulsiona efetivamente a compreensão de vídeo em LMMs. Começamos examinando criticamente os principais contribuintes para os altos requisitos computacionais associados à pesquisa de LMMs de vídeo e descobrimos a Consistência de Escalonamento, onde decisões de design e treinamento feitas em modelos e conjuntos de dados menores (até um tamanho crítico) transferem efetivamente para modelos maiores. Aproveitando essas percepções, exploramos muitos aspectos específicos de vídeo de LMMs de vídeo, incluindo amostragem de vídeo, arquiteturas, composição de dados, cronogramas de treinamento e mais. Por exemplo, demonstramos que a amostragem de fps durante o treinamento é muito preferível à amostragem uniforme de quadros e quais codificadores de visão são os melhores para representação de vídeo. Guiados por essas descobertas, apresentamos Apollo, uma família de LMMs de última geração que alcançam desempenho superior em diferentes tamanhos de modelo. Nossos modelos podem perceber vídeos de uma hora de forma eficiente, com o Apollo-3B superando a maioria dos modelos existentes de 7B com impressionantes 55.1 no LongVideoBench. O Apollo-7B é de última geração em comparação com os LMMs de 7B, com 70.9 no MLVU e 63.3 no Video-MME.