DocDancer : Vers une recherche d'information agentique fondée sur les documents
DocDancer: Towards Agentic Document-Grounded Information Seeking
January 8, 2026
papers.authors: Qintong Zhang, Xinjie Lv, Jialong Wu, Baixuan Li, Zhengwei Tao, Guochen Yan, Huanyao Zhang, Bin Wang, Jiahao Xu, Haitao Mi, Wentao Zhang
cs.AI
papers.abstract
La Question-Réponse sur Documents (DocQA) se concentre sur répondre à des questions ancrées dans des documents donnés, mais les agents DocQA existants manquent d'une utilisation efficace d'outils et reposent largement sur des modèles propriétaires. Dans ce travail, nous présentons DocDancer, un agent documentaire open-source entraîné de bout en bout. Nous formulons le DocQA comme un problème de recherche d'information et proposons un cadre d'agent piloté par des outils qui modélise explicitement l'exploration et la compréhension des documents. Pour permettre l'entraînement de bout en bout de tels agents, nous introduisons un pipeline de synthèse de données Exploration-puis-Synthèse qui résout la pénurie de données d'entraînement de haute qualité pour le DocQA. L'entraînement sur les données synthétisées, avec des modèles évalués sur deux benchmarks de compréhension de documents à long contexte, MMLongBench-Doc et DocBench, démontre leur efficacité. Une analyse plus poussée fournit des insights précieux pour la conception d'outils agentiques et les données synthétiques.
English
Document Question Answering (DocQA) focuses on answering questions grounded in given documents, yet existing DocQA agents lack effective tool utilization and largely rely on closed-source models. In this work, we introduce DocDancer, an end-to-end trained open-source Doc agent. We formulate DocQA as an information-seeking problem and propose a tool-driven agent framework that explicitly models document exploration and comprehension. To enable end-to-end training of such agents, we introduce an Exploration-then-Synthesis data synthesis pipeline that addresses the scarcity of high-quality training data for DocQA. Training on the synthesized data, the trained models on two long-context document understanding benchmarks, MMLongBench-Doc and DocBench, show their effectiveness. Further analysis provides valuable insights for the agentic tool design and synthetic data.