ChatPaper.aiChatPaper

Modelos de Lenguaje Multimodales de Gran Escala para el Diseño Molecular Inverso con Planificación Retrosintética

Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning

October 5, 2024
Autores: Gang Liu, Michael Sun, Wojciech Matusik, Meng Jiang, Jie Chen
cs.AI

Resumen

Si bien los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) han integrado imágenes, adaptarlos a grafos sigue siendo un desafío, lo que limita sus aplicaciones en el diseño de materiales y fármacos. Esta dificultad surge de la necesidad de una generación autoregresiva coherente a través de textos y grafos. Para abordar esto, presentamos Llamole, el primer LLM multimodal capaz de generar de forma entrelazada texto y grafos, lo que permite el diseño inverso molecular con planificación retrosintética. Llamole integra un LLM base con el Transformador de Difusión de Grafos y Redes Neuronales de Grafos para la generación molecular multi-condicional y la inferencia de reacciones dentro de textos, mientras que el LLM, con una comprensión molecular mejorada, controla de manera flexible la activación entre los diferentes módulos de grafo. Además, Llamole integra la búsqueda A* con funciones de costo basadas en LLM para una planificación retrosintética eficiente. Creamos conjuntos de datos de referencia y realizamos experimentos extensos para evaluar Llamole frente al aprendizaje en contexto y al ajuste fino supervisado. Llamole supera significativamente a 14 LLMs adaptados en 12 métricas para el diseño molecular controlable y la planificación retrosintética.
English
While large language models (LLMs) have integrated images, adapting them to graphs remains challenging, limiting their applications in materials and drug design. This difficulty stems from the need for coherent autoregressive generation across texts and graphs. To address this, we introduce Llamole, the first multimodal LLM capable of interleaved text and graph generation, enabling molecular inverse design with retrosynthetic planning. Llamole integrates a base LLM with the Graph Diffusion Transformer and Graph Neural Networks for multi-conditional molecular generation and reaction inference within texts, while the LLM, with enhanced molecular understanding, flexibly controls activation among the different graph modules. Additionally, Llamole integrates A* search with LLM-based cost functions for efficient retrosynthetic planning. We create benchmarking datasets and conduct extensive experiments to evaluate Llamole against in-context learning and supervised fine-tuning. Llamole significantly outperforms 14 adapted LLMs across 12 metrics for controllable molecular design and retrosynthetic planning.

Summary

AI-Generated Summary

PDF82November 16, 2024