Мультимодельные крупномасштабные языковые модели для обратного молекулярного дизайна с ретросинтетическим планированием.
Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning
October 5, 2024
Авторы: Gang Liu, Michael Sun, Wojciech Matusik, Meng Jiang, Jie Chen
cs.AI
Аннотация
Хотя большие языковые модели (LLM) уже интегрировали изображения, их адаптация к графам остается сложной, что ограничивает их применение в областях материалов и разработке лекарств. Эта сложность обусловлена необходимостью согласованной авторегрессивной генерации текстов и графов. Для решения этой проблемы мы представляем Llamole, первую мультимодальную LLM, способную к чередующейся генерации текста и графов, что позволяет молекулярное обратное проектирование с планированием ретросинтеза. Llamole интегрирует базовую LLM с Трансформером Диффузии Графа и Графовыми Нейронными Сетями для мультиусловной молекулярной генерации и вывода реакций в текстах, в то время как LLM, обладающая улучшенным пониманием молекул, гибко контролирует активацию среди различных графовых модулей. Кроме того, Llamole интегрирует поиск A* с функциями стоимости на основе LLM для эффективного планирования ретросинтеза. Мы создаем наборы данных для сравнения и проводим обширные эксперименты для оценки Llamole по сравнению с обучением в контексте и надзорным дообучением. Llamole значительно превосходит 14 адаптированных LLM по 12 метрикам для управляемого молекулярного дизайна и планирования ретросинтеза.
English
While large language models (LLMs) have integrated images, adapting them to
graphs remains challenging, limiting their applications in materials and drug
design. This difficulty stems from the need for coherent autoregressive
generation across texts and graphs. To address this, we introduce Llamole, the
first multimodal LLM capable of interleaved text and graph generation, enabling
molecular inverse design with retrosynthetic planning. Llamole integrates a
base LLM with the Graph Diffusion Transformer and Graph Neural Networks for
multi-conditional molecular generation and reaction inference within texts,
while the LLM, with enhanced molecular understanding, flexibly controls
activation among the different graph modules. Additionally, Llamole integrates
A* search with LLM-based cost functions for efficient retrosynthetic planning.
We create benchmarking datasets and conduct extensive experiments to evaluate
Llamole against in-context learning and supervised fine-tuning. Llamole
significantly outperforms 14 adapted LLMs across 12 metrics for controllable
molecular design and retrosynthetic planning.Summary
AI-Generated Summary