ChatPaper.aiChatPaper

HopChain: Sintesi di Dati Multi-Hop per il Ragionamento Visione-Linguaggio Generalizzabile

HopChain: Multi-Hop Data Synthesis for Generalizable Vision-Language Reasoning

March 17, 2026
Autori: Shenzhi Wang, Shixuan Liu, Jing Zhou, Chang Gao, Xiong-Hui Chen, Binghai Wang, An Yang, Shiji Song, Bowen Yu, Gao Huang, Junyang Lin
cs.AI

Abstract

I VLMs mostrano forti capacità multimodali, ma continuano a lottare con il ragionamento visione-linguaggio di tipo fine-grained. Rileviamo che il ragionamento a catena di pensiero (CoT) lungo espone diverse modalità di fallimento, inclusi errori di percezione, ragionamento, conoscenza e allucinazione, che possono accumularsi attraverso i passaggi intermedi. Tuttavia, la maggior parte dei dati visione-linguaggio esistenti utilizzati per il RLVR non coinvolge catene di ragionamento complesse che si basano su evidenze visive in tutto il processo, lasciando queste debolezze in gran parte inesplorate. Proponiamo quindi HopChain, un framework scalabile per sintetizzare dati di ragionamento visione-linguaggio multi-hop specificamente per l'addestramento RLVR dei VLMs. Ogni query multi-hop sintetizzata forma una catena logicamente dipendente di hop ancorati a istanze, in cui gli hop iniziali stabiliscono le istanze, gli insiemi o le condizioni necessarie per gli hop successivi, mentre la risposta finale rimane un numero specifico e non ambiguo, adatto per ricompense verificabili. Aggiungiamo i dati multi-hop sintetizzati da HopChain ai dati RLVR originali utilizzati per addestrare Qwen3.5-35B-A3B e Qwen3.5-397B-A17B, e confrontiamo i risultati con il RLVR sui soli dati RLVR originali su 24 benchmark che coprono STEM e Puzzle, VQA Generale, Riconoscimento del Testo e Comprensione di Documenti, e Comprensione Video. Sebbene questi dati multi-hop non siano sintetizzati per targettizzare benchmark specifici, la loro aggiunta migliora 20 su 24 benchmark su entrambi i modelli, indicando guadagni ampi e generalizzabili. Per dimostrare l'importanza delle query a catena completa, le sostituiamo con varianti half-multi-hop o single-hop, riducendo rispettivamente l'accuratezza media sui 24 benchmark di 5.3 e 7.0 punti. L'addestramento multi-hop rafforza anche il ragionamento visione-linguaggio a CoT lungo, con guadagni che raggiungono picchi di oltre 50 punti di accuratezza nel regime ultra-lungo CoT. Questi esperimenti stabiliscono HopChain come un framework efficace e scalabile per sintetizzare dati multi-hop che migliorano il ragionamento visione-linguaggio generalizzabile.
English
VLMs show strong multimodal capabilities, but they still struggle with fine-grained vision-language reasoning. We find that long CoT reasoning exposes diverse failure modes, including perception, reasoning, knowledge, and hallucination errors, which can compound across intermediate steps. However, most existing vision-language data used for RLVR does not involve complex reasoning chains that rely on visual evidence throughout, leaving these weaknesses largely unexposed. We therefore propose HopChain, a scalable framework for synthesizing multi-hop vision-language reasoning data specifically for RLVR training of VLMs. Each synthesized multi-hop query forms a logically dependent chain of instance-grounded hops, where earlier hops establish the instances, sets, or conditions needed for later hops, while the final answer remains a specific, unambiguous number suitable for verifiable rewards. We add the multi-hop data synthesized by HopChain to the original RLVR data used to train Qwen3.5-35B-A3B and Qwen3.5-397B-A17B, and compare against RLVR on the original RLVR data alone across 24 benchmarks spanning STEM and Puzzle, General VQA, Text Recognition and Document Understanding, and Video Understanding. Although this multi-hop data is not synthesized to target any specific benchmark, adding it improves 20 out of 24 benchmarks on both models, indicating broad and generalizable gains. To demonstrate that full chained queries are important, we replace them with half-multi-hop or single-hop variants, reducing the 24-benchmark average accuracy by 5.3 and 7.0 points, respectively. Multi-hop training also strengthens long-CoT vision-language reasoning, with gains peaking at more than 50 accuracy points in the ultra-long-CoT regime. These experiments establish HopChain as an effective, scalable framework for synthesizing multi-hop data that improves generalizable vision-language reasoning.
PDF993March 24, 2026