ChatPaper.aiChatPaper

QuantVLA: Quantização Pós-Treinamento Calibrada em Escala para Modelos Visão-Linguagem-Ação

QuantVLA: Scale-Calibrated Post-Training Quantization for Vision-Language-Action Models

February 23, 2026
Autores: Jingxuan Zhang, Yunta Hsieh, Zhongwei Wang, Haokun Lin, Xin Wang, Ziqi Wang, Yingtie Lei, Mi Zhang
cs.AI

Resumo

Os modelos visão-linguagem-ação (VLA) unificam percepção, linguagem e controle para agentes corporificados, mas enfrentam desafios significativos na implantação prática devido às crescentes demandas de computação e memória, especialmente à medida que os modelos escalam para horizontes temporais mais longos e backbones maiores. Para resolver esses gargalos, apresentamos o QuantVLA, uma estrutura de quantização pós-treinamento (PTQ) sem necessidade de treinamento adicional que, até onde sabemos, é a primeira abordagem PTQ para sistemas VLA e a primeira a quantizar com sucesso um cabeçalho de ação baseado em transformer de difusão (DiT). O QuantVLA incorpora três componentes com escala calibrada: (1) um layout de quantização seletiva que inteiriza todas as camadas lineares tanto no backbone de linguagem quanto no DiT, mantendo as projeções de atenção em ponto flutuante para preservar o cronograma original de operadores; (2) correspondência de temperatura de atenção, um mecanismo de escalonamento leve por cabeça que estabiliza os *logits* de atenção e é incorporado às escalas de desquantização durante a inferência; e (3) balanceamento do cabeçalho de saída, uma calibração de interface residual por camada que mitiga o desvio de energia pós-projeção. A estrutura não requer treinamento adicional, utiliza apenas um pequeno *buffer* de calibração não rotulado e suporta *kernels* inteiros para pesos e ativações de baixos *bits*, mantendo a arquitetura inalterada. Em modelos VLA representativos no benchmark LIBERO, o QuantVLA supera as taxas de sucesso de tarefas das linhas de base de precisão completa, alcança cerca de 70% de economia relativa de memória nos componentes quantizados e oferece uma aceleração de 1,22x na latência de inferência de ponta a ponta, fornecendo um caminho prático para inteligência corporificada escalável de baixos *bits* sob restrições rigorosas de computação, memória e energia.
English
Vision-language-action (VLA) models unify perception, language, and control for embodied agents but face significant challenges in practical deployment due to rapidly increasing compute and memory demands, especially as models scale to longer horizons and larger backbones. To address these bottlenecks, we introduce QuantVLA, a training-free post-training quantization (PTQ) framework that, to our knowledge, is the first PTQ approach for VLA systems and the first to successfully quantize a diffusion transformer (DiT) action head. QuantVLA incorporates three scale-calibrated components: (1) a selective quantization layout that integerizes all linear layers in both the language backbone and the DiT while keeping attention projections in floating point to preserve the original operator schedule; (2) attention temperature matching, a lightweight per-head scaling mechanism that stabilizes attention logits and is folded into the dequantization scales at inference; and (3) output head balancing, a per-layer residual interface calibration that mitigates post-projection energy drift. The framework requires no additional training, uses only a small unlabeled calibration buffer, and supports integer kernels for low-bit weights and activations while leaving the architecture unchanged. Across representative VLA models on LIBERO, QuantVLA exceeds the task success rates of full-precision baselines, achieves about 70% relative memory savings on the quantized components, and delivers a 1.22x speedup in end-to-end inference latency, providing a practical pathway toward scalable low-bit embodied intelligence under strict compute, memory, and power constraints.
PDF164March 28, 2026