ChatPaper.aiChatPaper

DiG-Flow : Appariement de flux guidé par les écarts pour des modèles VLA robustes

DiG-Flow: Discrepancy-Guided Flow Matching for Robust VLA Models

December 1, 2025
papers.authors: Wanpeng Zhang, Ye Wang, Hao Luo, Haoqi Yuan, Yicheng Feng, Sipeng Zheng, Qin Jin, Zongqing Lu
cs.AI

papers.abstract

Les modèles Vision-Langage-Action (VLA) entraînés par appariement de flux ont démontré des capacités impressionnantes sur les tâches de manipulation robotique. Cependant, leurs performances se dégradent souvent face à un décalage de distribution et sur des tâches multi-étapes complexes, suggérant que les représentations apprises ne capturent pas de manière robuste la sémantique pertinente à la tâche. Nous présentons DiG-Flow, un cadre méthodologique qui améliore la robustesse des modèles VLA par une régularisation géométrique. Notre idée clé est que l'écart distributionnel entre les plongements d'observation et d'action fournit un signal géométrique significatif : un coût de transport faible indique des représentations compatibles, tandis qu'un coût élevé suggère un désalignement potentiel. DiG-Flow calcule une mesure de divergence entre les distributions empiriques des plongements d'observation et d'action, la transforme en un poids de modulation via une fonction monotone, et applique des mises à jour résiduelles aux plongements d'observation avant l'appariement de flux. Cette intervention opère crucialement au niveau représentationnel sans modifier le chemin d'appariement de flux ou le champ vectoriel cible. Nous fournissons des garanties théoriques montrant que l'entraînement guidé par la divergence réduit de manière prouvable la fonction objectif d'entraînement, et que le raffinement d'inférence guidé converge avec contraction. Empiriquement, DiG-Flow s'intègre aux architectures VLA existantes avec une surcharge négligeable et améliore constamment les performances, avec des gains particulièrement prononcés sur les tâches multi-étapes complexes et dans des conditions de données d'entraînement limitées.
English
Vision-Language-Action (VLA) models trained with flow matching have demonstrated impressive capabilities on robotic manipulation tasks. However, their performance often degrades under distribution shift and on complex multi-step tasks, suggesting that the learned representations may not robustly capture task-relevant semantics. We introduce DiG-Flow, a principled framework that enhances VLA robustness through geometric regularization. Our key insight is that the distributional discrepancy between observation and action embeddings provides a meaningful geometric signal: lower transport cost indicates compatible representations, while higher cost suggests potential misalignment. DiG-Flow computes a discrepancy measure between empirical distributions of observation and action embeddings, maps it to a modulation weight via a monotone function, and applies residual updates to the observation embeddings before flow matching. Crucially, this intervention operates at the representation level without modifying the flow matching path or target vector field. We provide theoretical guarantees showing that discrepancy-guided training provably decreases the training objective, and that guided inference refinement converges with contraction. Empirically, DiG-Flow integrates into existing VLA architectures with negligible overhead and consistently improves performance, with particularly pronounced gains on complex multi-step tasks and under limited training data.
PDF81December 4, 2025