DLLM-Searcher: Adaptação do Modelo de Linguagem Grande por Difusão para Agentes de Busca
DLLM-Searcher: Adapting Diffusion Large Language Model for Search Agents
February 3, 2026
Autores: Jiahao Zhao, Shaoxuan Xu, Zhongxiang Sun, Fengqi Zhu, Jingyang Ou, Yuling Shi, Chongxuan Li, Xiao Zhang, Jun Xu
cs.AI
Resumo
Recentemente, os Modelos de Linguagem de Grande Porte por Difusão (dLLMs) demonstraram vantagens únicas de eficiência, possibilitadas por seu mecanismo de decodificação inerentemente paralelo e paradigma de geração flexível. Entretanto, apesar do rápido avanço dos Agentes de Busca, sua implantação prática é limitada por uma restrição fundamental, denominada 1) Desafio da Latência: a execução serial do raciocínio em múltiplas rodadas, da chamada de ferramentas e da espera pela resposta da ferramenta sob o paradigma de agente ReAct induz uma severa latência de ponta a ponta. Intuitivamente, os dLLMs podem aproveitar seus pontos fortes distintivos para otimizar a eficiência operacional dos agentes sob o paradigma ReAct. Na prática, os modelos dLLMs existentes enfrentam o 2) Desafio da Capacidade do Agente. Ou seja, os dLLMs existentes exibem capacidades de raciocínio e chamada de ferramentas notavelmente fracas, impedindo que essas vantagens sejam efetivamente realizadas. Neste artigo, propomos o DLLM-Searcher, uma estrutura de otimização para Agentes de Busca baseados em dLLM. Para resolver o Desafio da Capacidade do Agente, projetamos um pipeline de pós-treinamento em dois estágios, abrangendo o Ajuste Fino Supervisionado Agentivo (Agentic SFT) e a Otimização de Preferências com Variância Reduzida Agentiva (Agentic VRPO), que aprimora as capacidades de busca de informação e raciocínio do dLLM base. Para mitigar o Desafio da Latência, aproveitamos o mecanismo de geração flexível dos dLLMs e propomos um novo paradigma de agente denominado Raciocínio e Ação Paralelos (P-ReAct). O P-ReAct orienta o modelo a priorizar a decodificação de instruções de tool_call, permitindo assim que o modelo continue pensando enquanto aguarda o retorno da ferramenta. Resultados experimentais demonstram que o DLLM-Searcher alcança um desempenho comparável aos principais agentes de busca baseados em LLM e que o P-ReAct proporciona uma aceleração de inferência de aproximadamente 15%. Nosso código está disponível em https://anonymous.4open.science/r/DLLM-Searcher-553C.
English
Recently, Diffusion Large Language Models (dLLMs) have demonstrated unique efficiency advantages, enabled by their inherently parallel decoding mechanism and flexible generation paradigm. Meanwhile, despite the rapid advancement of Search Agents, their practical deployment is constrained by a fundamental limitation, termed as 1) Latency Challenge: the serial execution of multi-round reasoning, tool calling, and tool response waiting under the ReAct agent paradigm induces severe end-to-end latency. Intuitively, dLLMs can leverage their distinctive strengths to optimize the operational efficiency of agents under the ReAct agent paradigm. Practically, existing dLLM backbones face the 2) Agent Ability Challenge. That is, existing dLLMs exhibit remarkably weak reasoning and tool-calling capabilities, preventing these advantages from being effectively realized in practice. In this paper, we propose DLLM-Searcher, an optimization framework for dLLM-based Search Agents. To solve the Agent Ability Challenge, we design a two-stage post-training pipeline encompassing Agentic Supervised Fine-Tuning (Agentic SFT) and Agentic Variance-Reduced Preference Optimization Agentic VRPO, which enhances the backbone dLLM's information seeking and reasoning capabilities. To mitigate the Latency Challenge, we leverage the flexible generation mechanism of dLLMs and propose a novel agent paradigm termed Parallel-Reasoning and Acting P-ReAct. P-ReAct guides the model to prioritize decoding tool_call instructions, thereby allowing the model to keep thinking while waiting for the tool's return. Experimental results demonstrate that DLLM-Searcher achieves performance comparable to mainstream LLM-based search agents and P-ReAct delivers approximately 15% inference acceleration. Our code is available at https://anonymous.4open.science/r/DLLM-Searcher-553C