ChatPaper.aiChatPaper

Multimodale Grote Taalmodellen voor Inverse Moleculair Ontwerp met Retrosynthetische Planning

Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning

October 5, 2024
Auteurs: Gang Liu, Michael Sun, Wojciech Matusik, Meng Jiang, Jie Chen
cs.AI

Samenvatting

Hoewel grote taalmodellen (LLM's) afbeeldingen hebben geïntegreerd, blijft het aanpassen ervan aan grafieken uitdagend, waardoor hun toepassingen in materiaal- en medicijnontwerp beperkt zijn. Deze moeilijkheid komt voort uit de noodzaak van coherente autoregressieve generatie over teksten en grafieken. Om dit aan te pakken, introduceren we Llamole, de eerste multimodale LLM die in staat is tot onderlinge generatie van tekst en grafieken, waardoor moleculair omgekeerd ontwerp met retrosynthetische planning mogelijk wordt. Llamole integreert een basis LLM met de Graph Diffusion Transformer en Graph Neural Networks voor multi-conditionele moleculaire generatie en reactie-inferentie binnen teksten, terwijl het LLM, met verbeterd moleculair begrip, flexibel de activatie tussen de verschillende grafische modules regelt. Daarnaast integreert Llamole A* zoekopdrachten met op LLM gebaseerde kostfuncties voor efficiënte retrosynthetische planning. We creëren benchmarkdatasets en voeren uitgebreide experimenten uit om Llamole te evalueren ten opzichte van in-context leren en begeleid finetunen. Llamole presteert aanzienlijk beter dan 14 aangepaste LLM's op 12 metrieken voor controleerbaar moleculair ontwerp en retrosynthetische planning.
English
While large language models (LLMs) have integrated images, adapting them to graphs remains challenging, limiting their applications in materials and drug design. This difficulty stems from the need for coherent autoregressive generation across texts and graphs. To address this, we introduce Llamole, the first multimodal LLM capable of interleaved text and graph generation, enabling molecular inverse design with retrosynthetic planning. Llamole integrates a base LLM with the Graph Diffusion Transformer and Graph Neural Networks for multi-conditional molecular generation and reaction inference within texts, while the LLM, with enhanced molecular understanding, flexibly controls activation among the different graph modules. Additionally, Llamole integrates A* search with LLM-based cost functions for efficient retrosynthetic planning. We create benchmarking datasets and conduct extensive experiments to evaluate Llamole against in-context learning and supervised fine-tuning. Llamole significantly outperforms 14 adapted LLMs across 12 metrics for controllable molecular design and retrosynthetic planning.

Summary

AI-Generated Summary

PDF82November 16, 2024