ChatPaper.aiChatPaper

**StyleVLA: Modelo de Visão, Linguagem e Ação Consciente do Estilo de Condução para Veículos Autónomos**

StyleVLA: Driving Style-Aware Vision Language Action Model for Autonomous Driving

March 10, 2026
Autores: Yuan Gao, Dengyuan Hua, Mattia Piccinini, Finn Rasmus Schäfer, Korbinian Moller, Lin Li, Johannes Betz
cs.AI

Resumo

Os Modelos de Linguagem Visual (VLMs) estabelecem uma ponte entre a percepção visual e o raciocínio linguístico. Na Condução Autónoma (AD), esta sinergia permitiu o desenvolvimento de modelos Visão-Linguagem-Ação (VLA), que traduzem a compreensão multimodal de alto nível em comportamentos de condução, tipicamente representados como trajetórias futuras. No entanto, os modelos VLA existentes geram principalmente trajetórias genéricas livres de colisões. Para além da evitabilidade de colisões, a adaptação a diversos estilos de condução (ex.: desportivo, confortável) é essencial para uma condução personalizada. Adicionalmente, muitos métodos tratam a geração de trajetórias como uma previsão ingénua de tokens, o que pode produzir ações cinematicamente inviáveis. Para superar estas limitações, apresentamos o StyleVLA, um framework VLA informado pela física para gerar comportamentos de condução diversificados e fisicamente plausíveis. Introduzimos uma função de perda híbrida que combina uma restrição de consistência cinemática com um cabeçalho de regressão contínua para melhorar a viabilidade das trajetórias. Para treinar o StyleVLA, construído com base no Qwen3-VL-4B, construímos um conjunto de dados de instruções em larga escala com mais de 1,2 mil cenários, 76 mil amostras de Vista de Pássaro (BEV) e 42 mil amostras de Vista em Primeira Pessoa (FPV), contendo trajetórias de referência para cinco estilos de condução e instruções em linguagem natural. Experiências demonstram que o nosso StyleVLA com 4B parâmetros supera significativamente modelos proprietários (ex.: Gemini-3-Pro) e modelos VLA state-of-the-art. Utilizando uma pontuação composta de condução que mede a taxa de sucesso, a viabilidade física e a adesão ao estilo, o StyleVLA atinge 0,55 em BEV e 0,51 em FPV, contra 0,32 e 0,35 do Gemini-3-Pro. Estes resultados mostram que um modelo especializado, informado pela física e leve, pode superar modelos de código fechado em tarefas específicas de domínio.
English
Vision Language Models (VLMs) bridge visual perception and linguistic reasoning. In Autonomous Driving (AD), this synergy has enabled Vision Language Action (VLA) models, which translate high-level multimodal understanding into driving behaviors, typically represented as future trajectories. However, existing VLA models mainly generate generic collision-free trajectories. Beyond collision avoidance, adapting to diverse driving styles (e.g., sporty, comfortable) is essential for personalized driving. Moreover, many methods treat trajectory generation as naive token prediction, which can produce kinematically infeasible actions. To address these limitations, we present StyleVLA, a physics-informed VLA framework for generating diverse and physically plausible driving behaviors. We introduce a hybrid loss that combines a kinematic consistency constraint with a continuous regression head to improve trajectory feasibility. To train StyleVLA, built on Qwen3-VL-4B, we construct a large-scale instruction dataset with over 1.2k scenarios, 76k Bird's Eye View (BEV) samples, and 42k First Person View (FPV) samples, with ground-truth trajectories for five driving styles and natural-language instructions. Experiments show that our 4B-parameter StyleVLA significantly outperforms proprietary models (e.g., Gemini-3-Pro) and state-of-the-art VLA models. Using a composite driving score measuring success rate, physical feasibility, and style adherence, StyleVLA achieves 0.55 on BEV and 0.51 on FPV, versus 0.32 and 0.35 for Gemini-3-Pro. These results show that a specialized, physics-informed, lightweight model can surpass closed-source models on domain-specific tasks.
PDF02March 19, 2026