HopChain: Síntese de Dados Multi-Hop para Raciocínio Visão-Linguagem Generalizável
HopChain: Multi-Hop Data Synthesis for Generalizable Vision-Language Reasoning
March 17, 2026
Autores: Shenzhi Wang, Shixuan Liu, Jing Zhou, Chang Gao, Xiong-Hui Chen, Binghai Wang, An Yang, Shiji Song, Bowen Yu, Gao Huang, Junyang Lin
cs.AI
Resumo
Os VLMs demonstram fortes capacidades multimodais, mas ainda lutam com o raciocínio visão-linguagem de granularidade fina. Descobrimos que o raciocínio de Cadeia de Pensamento longa expõe modos de falha diversos, incluindo erros de perceção, raciocínio, conhecimento e alucinação, que podem compor-se ao longo dos passos intermédios. No entanto, a maioria dos dados visão-linguagem existentes usados para RLVR não envolvem cadeias de raciocínio complexas que dependam de evidência visual do princípio ao fim, deixando estas fraquezas largamente não expostas. Propomos, portanto, o HopChain, uma estrutura escalável para sintetizar dados de raciocínio visão-linguagem multi-hop especificamente para o treino de RLVR de VLMs. Cada consulta multi-hop sintetizada forma uma cadeia logicamente dependente de hops fundamentados em instâncias, onde hops anteriores estabelecem as instâncias, conjuntos ou condições necessárias para hops posteriores, enquanto a resposta final permanece um número específico e inequívoco, adequado para recompensas verificáveis. Adicionamos os dados multi-hop sintetizados pelo HopChain aos dados originais de RLVR usados para treinar o Qwen3.5-35B-A3B e o Qwen3.5-397B-A17B, e comparamos com o RLVR apenas nos dados originais de RLVR em 24 benchmarks abrangendo STEM e Puzzles, VQA Geral, Reconhecimento de Texto e Compreensão de Documentos, e Compreensão de Vídeo. Embora estes dados multi-hop não sejam sintetizados para visar qualquer benchmark específico, a sua adição melhora 20 dos 24 benchmarks em ambos os modelos, indicando ganhos amplos e generalizáveis. Para demonstrar que as consultas encadeadas completas são importantes, substituímo-las por variantes de meio-multi-hop ou single-hop, reduzindo a precisão média nos 24 benchmarks em 5.3 e 7.0 pontos, respetivamente. O treino multi-hop também fortalece o raciocínio visão-linguagem de CoT longo, com ganhos a atingir o pico em mais de 50 pontos de precisão no regime de CoT ultra-longo. Estes experimentos estabelecem o HopChain como uma estrutura eficaz e escalável para sintetizar dados multi-hop que melhoram o raciocínio visão-linguagem generalizável.
English
VLMs show strong multimodal capabilities, but they still struggle with fine-grained vision-language reasoning. We find that long CoT reasoning exposes diverse failure modes, including perception, reasoning, knowledge, and hallucination errors, which can compound across intermediate steps. However, most existing vision-language data used for RLVR does not involve complex reasoning chains that rely on visual evidence throughout, leaving these weaknesses largely unexposed. We therefore propose HopChain, a scalable framework for synthesizing multi-hop vision-language reasoning data specifically for RLVR training of VLMs. Each synthesized multi-hop query forms a logically dependent chain of instance-grounded hops, where earlier hops establish the instances, sets, or conditions needed for later hops, while the final answer remains a specific, unambiguous number suitable for verifiable rewards. We add the multi-hop data synthesized by HopChain to the original RLVR data used to train Qwen3.5-35B-A3B and Qwen3.5-397B-A17B, and compare against RLVR on the original RLVR data alone across 24 benchmarks spanning STEM and Puzzle, General VQA, Text Recognition and Document Understanding, and Video Understanding. Although this multi-hop data is not synthesized to target any specific benchmark, adding it improves 20 out of 24 benchmarks on both models, indicating broad and generalizable gains. To demonstrate that full chained queries are important, we replace them with half-multi-hop or single-hop variants, reducing the 24-benchmark average accuracy by 5.3 and 7.0 points, respectively. Multi-hop training also strengthens long-CoT vision-language reasoning, with gains peaking at more than 50 accuracy points in the ultra-long-CoT regime. These experiments establish HopChain as an effective, scalable framework for synthesizing multi-hop data that improves generalizable vision-language reasoning.