ChatPaper.aiChatPaper

DLLM-Searcher: Адаптация диффузионной большой языковой модели для поисковых агентов

DLLM-Searcher: Adapting Diffusion Large Language Model for Search Agents

February 3, 2026
Авторы: Jiahao Zhao, Shaoxuan Xu, Zhongxiang Sun, Fengqi Zhu, Jingyang Ou, Yuling Shi, Chongxuan Li, Xiao Zhang, Jun Xu
cs.AI

Аннотация

В последнее время диффузионные большие языковые модели (dLLM) продемонстрировали уникальные преимущества в эффективности благодаря изначально параллельному механизму декодирования и гибкой парадигме генерации. В то же время, несмотря на быстрое развитие поисковых агентов, их практическое развертывание ограничено фундаментальной проблемой, обозначаемой как 1) *Проблема задержки*: последовательное выполнение многошаговых рассуждений, вызовов инструментов и ожидания ответов от них в рамках парадигмы агента ReAct приводит к значительной сквозной задержке. Интуитивно, dLLM могут использовать свои отличительные сильные стороны для оптимизации операционной эффективности агентов в парадигме ReAct. Однако на практике существующие dLLM-архитектуры сталкиваются с 2) *Проблемой способностей агента*. А именно, существующие dLLM демонстрируют remarkably слабые возможности логического вывода и вызова инструментов, что не позволяет эффективно реализовать эти преимущества на практике. В данной статье мы предлагаем DLLM-Searcher, фреймворк для оптимизации поисковых агентов на основе dLLM. Для решения Проблемы способностей агента мы разрабатываем двухэтапный pipeline пост-обучения, включающий Агентную контролируемую тонкую настройку (Agentic SFT) и Агентную оптимизацию предпочтений с уменьшением дисперсии (Agentic VRPO), который усиливает способности базовой dLLM к поиску информации и логическим рассуждениям. Для смягчения Проблемы задержки мы используем гибкий механизм генерации dLLM и предлагаем новую парадигму агента под названием Параллельное Рассуждение и Действие (P-ReAct). P-ReAct побуждает модель отдавать приоритет декодированию инструкций вызова инструментов (tool_call), что позволяет модели продолжать размышлять в ожидании возврата результата от инструмента. Результаты экспериментов показывают, что DLLM-Searcher достигает производительности, сопоставимой с основными поисковыми агентами на базе LLM, а P-ReAct обеспечивает ускорение вывода примерно на 15%. Наш код доступен по адресу https://anonymous.4open.science/r/DLLM-Searcher-553C.
English
Recently, Diffusion Large Language Models (dLLMs) have demonstrated unique efficiency advantages, enabled by their inherently parallel decoding mechanism and flexible generation paradigm. Meanwhile, despite the rapid advancement of Search Agents, their practical deployment is constrained by a fundamental limitation, termed as 1) Latency Challenge: the serial execution of multi-round reasoning, tool calling, and tool response waiting under the ReAct agent paradigm induces severe end-to-end latency. Intuitively, dLLMs can leverage their distinctive strengths to optimize the operational efficiency of agents under the ReAct agent paradigm. Practically, existing dLLM backbones face the 2) Agent Ability Challenge. That is, existing dLLMs exhibit remarkably weak reasoning and tool-calling capabilities, preventing these advantages from being effectively realized in practice. In this paper, we propose DLLM-Searcher, an optimization framework for dLLM-based Search Agents. To solve the Agent Ability Challenge, we design a two-stage post-training pipeline encompassing Agentic Supervised Fine-Tuning (Agentic SFT) and Agentic Variance-Reduced Preference Optimization Agentic VRPO, which enhances the backbone dLLM's information seeking and reasoning capabilities. To mitigate the Latency Challenge, we leverage the flexible generation mechanism of dLLMs and propose a novel agent paradigm termed Parallel-Reasoning and Acting P-ReAct. P-ReAct guides the model to prioritize decoding tool_call instructions, thereby allowing the model to keep thinking while waiting for the tool's return. Experimental results demonstrate that DLLM-Searcher achieves performance comparable to mainstream LLM-based search agents and P-ReAct delivers approximately 15% inference acceleration. Our code is available at https://anonymous.4open.science/r/DLLM-Searcher-553C
PDF251February 12, 2026