ChatPaper.aiChatPaper

Modelli di linguaggio multimodali di grandi dimensioni per la progettazione molecolare inversa con pianificazione retrosintetica.

Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning

October 5, 2024
Autori: Gang Liu, Michael Sun, Wojciech Matusik, Meng Jiang, Jie Chen
cs.AI

Abstract

Mentre i grandi modelli linguistici (LLM) hanno integrato le immagini, adattarli ai grafi rimane sfidante, limitando le loro applicazioni nel design di materiali e farmaci. Questa difficoltà deriva dalla necessità di generazione autoregressiva coerente tra testi e grafi. Per affrontare questo problema, presentiamo Llamole, il primo LLM multimodale capace di generare testo e grafo in modo intercalato, consentendo il design inverso molecolare con pianificazione retrosintetica. Llamole integra un LLM di base con il Transformer a Diffusione di Grafo e le Reti Neurali di Grafo per la generazione molecolare multi-condizionale e l'inferenza di reazione all'interno dei testi, mentre il LLM, con una maggiore comprensione molecolare, controlla in modo flessibile l'attivazione tra i diversi moduli del grafo. Inoltre, Llamole integra la ricerca A* con funzioni di costo basate su LLM per una pianificazione retrosintetica efficiente. Creiamo set di dati di riferimento e conduciamo ampi esperimenti per valutare Llamole rispetto all'apprendimento in contesto e al raffinamento supervisionato. Llamole supera significativamente 14 LLM adattati su 12 metriche per il design molecolare controllabile e la pianificazione retrosintetica.
English
While large language models (LLMs) have integrated images, adapting them to graphs remains challenging, limiting their applications in materials and drug design. This difficulty stems from the need for coherent autoregressive generation across texts and graphs. To address this, we introduce Llamole, the first multimodal LLM capable of interleaved text and graph generation, enabling molecular inverse design with retrosynthetic planning. Llamole integrates a base LLM with the Graph Diffusion Transformer and Graph Neural Networks for multi-conditional molecular generation and reaction inference within texts, while the LLM, with enhanced molecular understanding, flexibly controls activation among the different graph modules. Additionally, Llamole integrates A* search with LLM-based cost functions for efficient retrosynthetic planning. We create benchmarking datasets and conduct extensive experiments to evaluate Llamole against in-context learning and supervised fine-tuning. Llamole significantly outperforms 14 adapted LLMs across 12 metrics for controllable molecular design and retrosynthetic planning.
PDF82November 16, 2024