HopChain: Multi-Hop Gegevenssynthese voor Generaliseerbaar Redeneren tussen Beeld en Taal
HopChain: Multi-Hop Data Synthesis for Generalizable Vision-Language Reasoning
March 17, 2026
Auteurs: Shenzhi Wang, Shixuan Liu, Jing Zhou, Chang Gao, Xiong-Hui Chen, Binghai Wang, An Yang, Shiji Song, Bowen Yu, Gao Huang, Junyang Lin
cs.AI
Samenvatting
VLMs vertonen sterke multimodale capaciteiten, maar worstelen nog steeds met fijnmazige visueel-taalkundige redenering. Wij constateren dat lange Chain-of-Thought-redenering diverse faalmodi blootlegt, waaronder perceptie-, redeneer-, kennis- en hallucinatiefouten, die zich kunnen opstapelen over tussenliggende stappen. De meeste bestaande visueel-taalkundige data die voor RLVR wordt gebruikt, omvat echter geen complexe redeneerketens die volledig op visueel bewijs steunen, waardoor deze zwaktes grotendeels onzichtbaar blijven. Daarom stellen wij HopChain voor, een schaalbaar raamwerk voor het synthetiseren van multi-hop visueel-taalkundige redeneerdata, specifiek voor RLVR-training van VLMs. Elke gesynthetiseerde multi-hop query vormt een logisch afhankelijke keten van op instanties gebaseerde hops, waarbij eerdere hops de instanties, sets of voorwaarden vestigen die nodig zijn voor latere hops, terwijl het uiteindelijke antwoord een specifiek, eenduidig getal blijft dat geschikt is voor verifieerbare beloningen. Wij voegen de door HopChain gesynthetiseerde multi-hop data toe aan de oorspronkelijke RLVR-data die werd gebruikt om Qwen3.5-35B-A3B en Qwen3.5-397B-A17B te trainen, en vergelijken dit met RLVR op alleen de oorspronkelijke RLVR-data over 24 benchmarks die STEM en puzzels, algemene VQA, tekstherkenning en documentbegrip, en videobegrip beslaan. Hoewel deze multi-hop data niet is gesynthetiseerd om zich op een specifieke benchmark te richten, verbetert de toevoeging ervan 20 van de 24 benchmarks voor beide modellen, wat wijst op brede en generaliseerbare winst. Om aan te tonen dat volledige geketende queries belangrijk zijn, vervangen we deze door half-multi-hop of single-hop varianten, wat de gemiddelde nauwkeurigheid over de 24 benchmarks respectievelijk met 5.3 en 7.0 punten verlaagt. Multi-hop training versterkt ook lange-CoT visueel-taalkundige redenering, met winsten die pieken op meer dan 50 nauwkeurigheidspunten in het ultra-lange-CoT regime. Deze experimenten vestigen HopChain als een effectief, schaalbaar raamwerk voor het synthetiseren van multi-hop data die generaliseerbare visueel-taalkundige redenering verbetert.
English
VLMs show strong multimodal capabilities, but they still struggle with fine-grained vision-language reasoning. We find that long CoT reasoning exposes diverse failure modes, including perception, reasoning, knowledge, and hallucination errors, which can compound across intermediate steps. However, most existing vision-language data used for RLVR does not involve complex reasoning chains that rely on visual evidence throughout, leaving these weaknesses largely unexposed. We therefore propose HopChain, a scalable framework for synthesizing multi-hop vision-language reasoning data specifically for RLVR training of VLMs. Each synthesized multi-hop query forms a logically dependent chain of instance-grounded hops, where earlier hops establish the instances, sets, or conditions needed for later hops, while the final answer remains a specific, unambiguous number suitable for verifiable rewards. We add the multi-hop data synthesized by HopChain to the original RLVR data used to train Qwen3.5-35B-A3B and Qwen3.5-397B-A17B, and compare against RLVR on the original RLVR data alone across 24 benchmarks spanning STEM and Puzzle, General VQA, Text Recognition and Document Understanding, and Video Understanding. Although this multi-hop data is not synthesized to target any specific benchmark, adding it improves 20 out of 24 benchmarks on both models, indicating broad and generalizable gains. To demonstrate that full chained queries are important, we replace them with half-multi-hop or single-hop variants, reducing the 24-benchmark average accuracy by 5.3 and 7.0 points, respectively. Multi-hop training also strengthens long-CoT vision-language reasoning, with gains peaking at more than 50 accuracy points in the ultra-long-CoT regime. These experiments establish HopChain as an effective, scalable framework for synthesizing multi-hop data that improves generalizable vision-language reasoning.