ChatPaper.aiChatPaper

CogVLA: Modello Visione-Linguaggio-Azione Allineato alla Cognizione tramite Instradamento Guidato da Istruzioni e Sparsificazione

CogVLA: Cognition-Aligned Vision-Language-Action Model via Instruction-Driven Routing & Sparsification

August 28, 2025
Autori: Wei Li, Renshan Zhang, Rui Shao, Jie He, Liqiang Nie
cs.AI

Abstract

I recenti modelli Vision-Language-Action (VLA) basati su modelli Vision-Language (VLM) pre-addestrati richiedono un ampio post-training, risultando in un elevato overhead computazionale che limita la scalabilità e il deployment. Proponiamo CogVLA, un framework Cognition-Aligned Vision-Language-Action che sfrutta il routing guidato da istruzioni e la sparsificazione per migliorare sia l'efficienza che le prestazioni. CogVLA trae ispirazione dalla coordinazione multimodale umana e introduce un'architettura progressiva a 3 stadi. 1) L'Encoder-FiLM based Aggregation Routing (EFA-Routing) inietta le informazioni delle istruzioni nell'encoder visivo per aggregare e comprimere selettivamente i token visivi dual-stream, formando una rappresentazione latente consapevole delle istruzioni. 2) Basandosi su questa codifica visiva compatta, l'LLM-FiLM based Pruning Routing (LFP-Routing) introduce l'intento d'azione nel modello linguistico potando i token visivi non rilevanti per le istruzioni, ottenendo così una sparsità a livello di token. 3) Per garantire che gli input percettivi compressi possano comunque supportare una generazione d'azione accurata e coerente, introduciamo il V-L-A Coupled Attention (CAtten), che combina l'attenzione causale vision-language con il decoding parallelo bidirezionale delle azioni. Esperimenti estensivi sul benchmark LIBERO e su task robotici del mondo reale dimostrano che CogVLA raggiunge prestazioni all'avanguardia con tassi di successo del 97.4% e 70.0%, rispettivamente, riducendo i costi di training di 2.5 volte e diminuendo la latenza di inferenza di 2.8 volte rispetto a OpenVLA. CogVLA è open-source e disponibile pubblicamente all'indirizzo https://github.com/JiuTian-VL/CogVLA.
English
Recent Vision-Language-Action (VLA) models built on pre-trained Vision-Language Models (VLMs) require extensive post-training, resulting in high computational overhead that limits scalability and deployment.We propose CogVLA, a Cognition-Aligned Vision-Language-Action framework that leverages instruction-driven routing and sparsification to improve both efficiency and performance. CogVLA draws inspiration from human multimodal coordination and introduces a 3-stage progressive architecture. 1) Encoder-FiLM based Aggregation Routing (EFA-Routing) injects instruction information into the vision encoder to selectively aggregate and compress dual-stream visual tokens, forming a instruction-aware latent representation. 2) Building upon this compact visual encoding, LLM-FiLM based Pruning Routing (LFP-Routing) introduces action intent into the language model by pruning instruction-irrelevant visually grounded tokens, thereby achieving token-level sparsity. 3) To ensure that compressed perception inputs can still support accurate and coherent action generation, we introduce V-L-A Coupled Attention (CAtten), which combines causal vision-language attention with bidirectional action parallel decoding. Extensive experiments on the LIBERO benchmark and real-world robotic tasks demonstrate that CogVLA achieves state-of-the-art performance with success rates of 97.4% and 70.0%, respectively, while reducing training costs by 2.5-fold and decreasing inference latency by 2.8-fold compared to OpenVLA. CogVLA is open-sourced and publicly available at https://github.com/JiuTian-VL/CogVLA.
PDF92August 29, 2025