ChatPaper.aiChatPaper

Мультимодельные крупномасштабные языковые модели для обратного молекулярного дизайна с ретросинтетическим планированием.

Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning

October 5, 2024
Авторы: Gang Liu, Michael Sun, Wojciech Matusik, Meng Jiang, Jie Chen
cs.AI

Аннотация

Хотя большие языковые модели (LLM) уже интегрировали изображения, их адаптация к графам остается сложной, что ограничивает их применение в областях материалов и разработке лекарств. Эта сложность обусловлена необходимостью согласованной авторегрессивной генерации текстов и графов. Для решения этой проблемы мы представляем Llamole, первую мультимодальную LLM, способную к чередующейся генерации текста и графов, что позволяет молекулярное обратное проектирование с планированием ретросинтеза. Llamole интегрирует базовую LLM с Трансформером Диффузии Графа и Графовыми Нейронными Сетями для мультиусловной молекулярной генерации и вывода реакций в текстах, в то время как LLM, обладающая улучшенным пониманием молекул, гибко контролирует активацию среди различных графовых модулей. Кроме того, Llamole интегрирует поиск A* с функциями стоимости на основе LLM для эффективного планирования ретросинтеза. Мы создаем наборы данных для сравнения и проводим обширные эксперименты для оценки Llamole по сравнению с обучением в контексте и надзорным дообучением. Llamole значительно превосходит 14 адаптированных LLM по 12 метрикам для управляемого молекулярного дизайна и планирования ретросинтеза.
English
While large language models (LLMs) have integrated images, adapting them to graphs remains challenging, limiting their applications in materials and drug design. This difficulty stems from the need for coherent autoregressive generation across texts and graphs. To address this, we introduce Llamole, the first multimodal LLM capable of interleaved text and graph generation, enabling molecular inverse design with retrosynthetic planning. Llamole integrates a base LLM with the Graph Diffusion Transformer and Graph Neural Networks for multi-conditional molecular generation and reaction inference within texts, while the LLM, with enhanced molecular understanding, flexibly controls activation among the different graph modules. Additionally, Llamole integrates A* search with LLM-based cost functions for efficient retrosynthetic planning. We create benchmarking datasets and conduct extensive experiments to evaluate Llamole against in-context learning and supervised fine-tuning. Llamole significantly outperforms 14 adapted LLMs across 12 metrics for controllable molecular design and retrosynthetic planning.

Summary

AI-Generated Summary

PDF82November 16, 2024