ChatPaper.aiChatPaper

QuantVLA: Quantizzazione Post-Addestramento con Calibrazione di Scala per Modelli Visione-Linguaggio-Azione

QuantVLA: Scale-Calibrated Post-Training Quantization for Vision-Language-Action Models

February 23, 2026
Autori: Jingxuan Zhang, Yunta Hsieh, Zhongwei Wang, Haokun Lin, Xin Wang, Ziqi Wang, Yingtie Lei, Mi Zhang
cs.AI

Abstract

I modelli visione-linguaggio-azione (VLA) unificano percezione, linguaggio e controllo per agenti embodied, ma affrontano sfide significative nella diffusione pratica a causa delle crescenti esigenze computazionali e di memoria, specialmente con il ridimensionamento a orizzonti temporali più lunghi e backbone più grandi. Per affrontare questi colli di bottiglia, introduciamo QuantVLA, un framework di quantizzazione post-addestramento (PTQ) senza ulteriore training che, a nostra conoscenza, è il primo approccio PTQ per sistemi VLA e il primo a quantizzare con successo una testa di azione basata su diffusion transformer (DiT). QuantVLA incorpora tre componenti a scala calibrata: (1) un layout di quantizzazione selettivo che interizza tutti i livelli lineari sia nel backbone linguistico che nel DiT, mantenendo le proiezioni di attenzione in virgola mobile per preservare la pianificazione originale degli operatori; (2) l'adattamento della temperatura di attenzione, un meccanismo di scalatura leggero per testa che stabilizza i logit di attenzione e viene incorporato nelle scale di dequantizzazione durante l'inferenza; e (3) il bilanciamento della testa di output, una calibrazione dell'interfaccia residua per livello che mitiga la deriva energetica post-proiezione. Il framework non richiede training aggiuntivo, utilizza solo un piccolo buffer di calibrazione non etichettato e supporta kernel interi per pesi e attivazioni a basso bit, lasciando invariata l'architettura. Su modelli VLA rappresentativi su LIBERO, QuantVLA supera i tassi di successo delle baseline a precisione completa, raggiunge circa il 70% di risparmio relativo di memoria sui componenti quantizzati e fornisce un'accelerazione di 1.22x nella latenza end-to-end di inferenza, offrendo un percorso pratico verso un'intelligenza embodied scalabile a basso bit sotto stringenti vincoli computazionali, di memoria e di potenza.
English
Vision-language-action (VLA) models unify perception, language, and control for embodied agents but face significant challenges in practical deployment due to rapidly increasing compute and memory demands, especially as models scale to longer horizons and larger backbones. To address these bottlenecks, we introduce QuantVLA, a training-free post-training quantization (PTQ) framework that, to our knowledge, is the first PTQ approach for VLA systems and the first to successfully quantize a diffusion transformer (DiT) action head. QuantVLA incorporates three scale-calibrated components: (1) a selective quantization layout that integerizes all linear layers in both the language backbone and the DiT while keeping attention projections in floating point to preserve the original operator schedule; (2) attention temperature matching, a lightweight per-head scaling mechanism that stabilizes attention logits and is folded into the dequantization scales at inference; and (3) output head balancing, a per-layer residual interface calibration that mitigates post-projection energy drift. The framework requires no additional training, uses only a small unlabeled calibration buffer, and supports integer kernels for low-bit weights and activations while leaving the architecture unchanged. Across representative VLA models on LIBERO, QuantVLA exceeds the task success rates of full-precision baselines, achieves about 70% relative memory savings on the quantized components, and delivers a 1.22x speedup in end-to-end inference latency, providing a practical pathway toward scalable low-bit embodied intelligence under strict compute, memory, and power constraints.
PDF164March 28, 2026