HopChain : Synthèse de données multi-sauts pour un raisonnement vision-langage généralisable
HopChain: Multi-Hop Data Synthesis for Generalizable Vision-Language Reasoning
March 17, 2026
Auteurs: Shenzhi Wang, Shixuan Liu, Jing Zhou, Chang Gao, Xiong-Hui Chen, Binghai Wang, An Yang, Shiji Song, Bowen Yu, Gao Huang, Junyang Lin
cs.AI
Résumé
Les modèles de vision-langage (VLM) démontrent de solides capacités multimodales, mais peinent encore avec le raisonnement vision-langage à granularité fine. Nous constatons que les raisonnements à chaîne de pensée (CoT) longs exposent divers modes d'échec, incluant des erreurs de perception, de raisonnement, de connaissance et des hallucinations, qui peuvent s'accumuler à travers les étapes intermédiaires. Cependant, la plupart des données vision-langage existantes utilisées pour le RLVR n'impliquent pas de chaînes de raisonnement complexes s'appuyant sur des preuves visuelles tout au long du processus, laissant ces faiblesses largement inexplorées. Nous proposons donc HopChain, un cadre évolutif pour synthétiser des données de raisonnement vision-langage multi-sauts spécifiquement pour l'entraînement RLVR des VLM. Chaque requête multi-sauts synthétisée forme une chaîne logiquement dépendante de sauts ancrés dans des instances, où les premiers sauts établissent les instances, ensembles ou conditions nécessaires aux sauts suivants, tandis que la réponse finale reste un nombre spécifique et non ambigu, adapté à des récompenses vérifiables. Nous ajoutons les données multi-sauts synthétisées par HopChain aux données RLVR originales utilisées pour entraîner Qwen3.5-35B-A3B et Qwen3.5-397B-A17B, et comparons les performances par rapport à l'utilisation des seules données RLVR originales sur 24 benchmarks couvrant les STEM et puzzles, la VQA générale, la reconnaissance de texte et la compréhension de documents, et la compréhension vidéo. Bien que ces données multi-sauts ne soient pas synthétisées pour cibler un benchmark spécifique, leur ajout améliore 20 des 24 benchmarks sur les deux modèles, indiquant des gains étendus et généralisables. Pour démontrer l'importance des requêtes entièrement chaînées, nous les remplaçons par des variantes demi-multi-sauts ou à saut unique, réduisant respectivement la précision moyenne sur les 24 benchmarks de 5,3 et 7,0 points. L'entraînement multi-sauts renforce également le raisonnement vision-langage par CoT long, avec des gains culminant à plus de 50 points de précision dans le régime CoT ultra-long. Ces expériences établissent HopChain comme un cadre efficace et évolutif pour synthétiser des données multi-sauts qui améliorent le raisonnement vision-langage généralisable.
English
VLMs show strong multimodal capabilities, but they still struggle with fine-grained vision-language reasoning. We find that long CoT reasoning exposes diverse failure modes, including perception, reasoning, knowledge, and hallucination errors, which can compound across intermediate steps. However, most existing vision-language data used for RLVR does not involve complex reasoning chains that rely on visual evidence throughout, leaving these weaknesses largely unexposed. We therefore propose HopChain, a scalable framework for synthesizing multi-hop vision-language reasoning data specifically for RLVR training of VLMs. Each synthesized multi-hop query forms a logically dependent chain of instance-grounded hops, where earlier hops establish the instances, sets, or conditions needed for later hops, while the final answer remains a specific, unambiguous number suitable for verifiable rewards. We add the multi-hop data synthesized by HopChain to the original RLVR data used to train Qwen3.5-35B-A3B and Qwen3.5-397B-A17B, and compare against RLVR on the original RLVR data alone across 24 benchmarks spanning STEM and Puzzle, General VQA, Text Recognition and Document Understanding, and Video Understanding. Although this multi-hop data is not synthesized to target any specific benchmark, adding it improves 20 out of 24 benchmarks on both models, indicating broad and generalizable gains. To demonstrate that full chained queries are important, we replace them with half-multi-hop or single-hop variants, reducing the 24-benchmark average accuracy by 5.3 and 7.0 points, respectively. Multi-hop training also strengthens long-CoT vision-language reasoning, with gains peaking at more than 50 accuracy points in the ultra-long-CoT regime. These experiments establish HopChain as an effective, scalable framework for synthesizing multi-hop data that improves generalizable vision-language reasoning.