Mozi: Autonomia Governada para Agentes de LLM na Descoberta de Fármacos
Mozi: Governed Autonomy for Drug Discovery LLM Agents
March 4, 2026
Autores: He Cao, Siyu Liu, Fan Zhang, Zijing Liu, Hao Li, Bin Feng, Shengyuan Bai, Leqing Chen, Kai Xie, Yu Li
cs.AI
Resumo
Os agentes de linguagem natural de grande porte (LLM) aumentados por ferramentas prometem unificar o raciocínio científico com a computação, mas sua implantação em domínios de alto risco como a descoberta de medicamentos é limitada por duas barreiras críticas: governança não restrita do uso de ferramentas e baixa confiabilidade em horizontes temporais longos. Em pipelines farmacêuticos com alta dependência, os agentes autónomos frequentemente desviam-se para trajetórias irreprodutíveis, onde alucinações em fases iniciais se multiplicam em falhas a jusante. Para superar isso, apresentamos Mozi, uma arquitetura de dupla camada que une a flexibilidade da IA generativa com o rigor determinístico da biologia computacional. A Camada A (Plano de Controlo) estabelece uma hierarquia supervisionada de supervisor-trabalhador que impõe isolamento de ferramentas baseado em funções, limita a execução a espaços de ação restritos e conduce o replaneamento baseado em reflexão. A Camada B (Plano de Fluxo de Trabalho) operacionaliza as etapas canónicas da descoberta de medicamentos – da Identificação de Alvos à Otimização de Candidatos – como grafos de habilidades composáveis e com estado. Esta camada integra contratos de dados rigorosos e pontos de verificação estratégicos com intervenção humana (HITL) para salvaguardar a validade científica em fronteiras de decisão de alta incerteza.
Operando com o princípio de design de "raciocínio de forma livre para tarefas seguras, execução estruturada para pipelines de longo horizonte", o Mozi fornece mecanismos de robustez incorporados e auditabilidade ao nível do rastreio para mitigar completamente a acumulação de erros. Avaliamos o Mozi no PharmaBench, um benchmark curado para agentes biomédicos, demonstrando uma precisão de orquestração superior em relação às linhas de base existentes. Além disso, através de estudos de caso terapêuticos de ponta a ponta, demonstramos a capacidade do Mozi de navegar em espaços químicos massivos, impor filtros de toxicidade rigorosos e gerar candidatos *in silico* altamente competitivos, transformando efetivamente o LLM de um conversador frágil num co-cientista confiável e governado.
English
Tool-augmented large language model (LLM) agents promise to unify scientific reasoning with computation, yet their deployment in high-stakes domains like drug discovery is bottlenecked by two critical barriers: unconstrained tool-use governance and poor long-horizon reliability. In dependency-heavy pharmaceutical pipelines, autonomous agents often drift into irreproducible trajectories, where early-stage hallucinations multiplicatively compound into downstream failures. To overcome this, we present Mozi, a dual-layer architecture that bridges the flexibility of generative AI with the deterministic rigor of computational biology. Layer A (Control Plane) establishes a governed supervisor--worker hierarchy that enforces role-based tool isolation, limits execution to constrained action spaces, and drives reflection-based replanning. Layer B (Workflow Plane) operationalizes canonical drug discovery stages -- from Target Identification to Lead Optimization -- as stateful, composable skill graphs. This layer integrates strict data contracts and strategic human-in-the-loop (HITL) checkpoints to safeguard scientific validity at high-uncertainty decision boundaries.
Operating on the design principle of ``free-form reasoning for safe tasks, structured execution for long-horizon pipelines,'' Mozi provides built-in robustness mechanisms and trace-level audibility to completely mitigate error accumulation. We evaluate Mozi on PharmaBench, a curated benchmark for biomedical agents, demonstrating superior orchestration accuracy over existing baselines. Furthermore, through end-to-end therapeutic case studies, we demonstrate Mozi's ability to navigate massive chemical spaces, enforce stringent toxicity filters, and generate highly competitive in silico candidates, effectively transforming the LLM from a fragile conversationalist into a reliable, governed co-scientist.