ChatPaper.aiChatPaper

DLLM-Searcher: Adattamento del Modello Linguistico su Grande Scala a Diffusione per Agenti di Ricerca

DLLM-Searcher: Adapting Diffusion Large Language Model for Search Agents

February 3, 2026
Autori: Jiahao Zhao, Shaoxuan Xu, Zhongxiang Sun, Fengqi Zhu, Jingyang Ou, Yuling Shi, Chongxuan Li, Xiao Zhang, Jun Xu
cs.AI

Abstract

Recentemente, i Modelli Linguistici Basati su Diffusione (dLLM) hanno dimostrato vantaggi unici in termini di efficienza, abilitati dal loro meccanismo di decodifica intrinsecamente parallelo e dal paradigma di generazione flessibile. Nel frattempo, nonostante i rapidi progressi degli Agenti di Ricerca, il loro dispiegamento pratico è limitato da una fondamentale problematica, denominata 1) Sfida della Latenza: l'esecuzione seriale del ragionamento multi-round, della chiamata di strumenti e dell'attesa delle risposte degli strumenti sotto il paradigma agente ReAct provoca una severa latenza end-to-end. Intuitivamente, i dLLM possono sfruttare i loro punti di forza distintivi per ottimizzare l'efficienza operativa degli agenti sotto il paradigma ReAct. Tuttavia, nella pratica, gli attuali modelli base dLLM affrontano la 2) Sfida delle Capacità Agente. Ovvero, i dLLM esistenti mostrano capacità di ragionamento e di chiamata di strumenti notevolmente deboli, impedendo che questi vantaggi vengano realizzati efficacemente nella pratica. In questo articolo, proponiamo DLLM-Searcher, un framework di ottimizzazione per Agenti di Ricerca basati su dLLM. Per risolvere la Sfida delle Capacità Agente, progettiamo una pipeline di post-addestramento in due fasi che comprende l'Affinamento Supervisionato Agente (Agentic SFT) e l'Ottimizzazione delle Preferenze con Varianza Ridotta Agente (Agentic VRPO), che potenzia le capacità di ricerca di informazioni e di ragionamento del dLLM base. Per mitigare la Sfida della Latenza, sfruttiamo il meccanismo di generazione flessibile dei dLLM e proponiamo un nuovo paradigma agente denominato Ragionamento e Azione Paralleli (P-ReAct). P-ReAct guida il modello a dare priorità alla decodifica delle istruzioni di `tool_call`, permettendo così al modello di continuare a pensare mentre attende il ritorno dello strumento. I risultati sperimentali dimostrano che DLLM-Searcher raggiunge prestazioni paragonabili ai principali agenti di ricerca basati su LLM e che P-ReAct fornisce un'accelerazione inferenziale di circa il 15%. Il nostro codice è disponibile all'indirizzo https://anonymous.4open.science/r/DLLM-Searcher-553C.
English
Recently, Diffusion Large Language Models (dLLMs) have demonstrated unique efficiency advantages, enabled by their inherently parallel decoding mechanism and flexible generation paradigm. Meanwhile, despite the rapid advancement of Search Agents, their practical deployment is constrained by a fundamental limitation, termed as 1) Latency Challenge: the serial execution of multi-round reasoning, tool calling, and tool response waiting under the ReAct agent paradigm induces severe end-to-end latency. Intuitively, dLLMs can leverage their distinctive strengths to optimize the operational efficiency of agents under the ReAct agent paradigm. Practically, existing dLLM backbones face the 2) Agent Ability Challenge. That is, existing dLLMs exhibit remarkably weak reasoning and tool-calling capabilities, preventing these advantages from being effectively realized in practice. In this paper, we propose DLLM-Searcher, an optimization framework for dLLM-based Search Agents. To solve the Agent Ability Challenge, we design a two-stage post-training pipeline encompassing Agentic Supervised Fine-Tuning (Agentic SFT) and Agentic Variance-Reduced Preference Optimization Agentic VRPO, which enhances the backbone dLLM's information seeking and reasoning capabilities. To mitigate the Latency Challenge, we leverage the flexible generation mechanism of dLLMs and propose a novel agent paradigm termed Parallel-Reasoning and Acting P-ReAct. P-ReAct guides the model to prioritize decoding tool_call instructions, thereby allowing the model to keep thinking while waiting for the tool's return. Experimental results demonstrate that DLLM-Searcher achieves performance comparable to mainstream LLM-based search agents and P-ReAct delivers approximately 15% inference acceleration. Our code is available at https://anonymous.4open.science/r/DLLM-Searcher-553C
PDF302March 19, 2026