TOMG-Bench : Évaluation des LLM sur la génération de molécules ouverte basée sur du texte
TOMG-Bench: Evaluating LLMs on Text-based Open Molecule Generation
December 19, 2024
Auteurs: Jiatong Li, Junxian Li, Yunqing Liu, Dongzhan Zhou, Qing Li
cs.AI
Résumé
Dans cet article, nous proposons le Benchmark de Génération de Molécules Ouvertes basé sur le Texte (TOMG-Bench), le premier benchmark pour évaluer la capacité de génération de molécules en domaine ouvert des LLMs. TOMG-Bench englobe un ensemble de données de trois tâches principales : l'édition de molécules (MolEdit), l'optimisation de molécules (MolOpt), et la génération de molécules personnalisées (MolCustom). Chaque tâche contient en outre trois sous-tâches, chacune comprenant 5 000 échantillons de test. Étant donnée la complexité inhérente de la génération de molécules ouvertes, nous avons également développé un système d'évaluation automatisé qui aide à mesurer à la fois la qualité et la précision des molécules générées. Notre évaluation complète de 25 LLMs révèle les limitations actuelles et les domaines potentiels d'amélioration dans la découverte de molécules guidée par le texte. De plus, avec l'aide d'OpenMolIns, un ensemble de données de réglage d'instructions spécialisé proposé pour résoudre les défis posés par TOMG-Bench, Llama3.1-8B a pu surpasser tous les LLMs généraux open source, dépassant même GPT-3.5-turbo de 46,5\% sur TOMG-Bench. Nos codes et ensembles de données sont disponibles sur https://github.com/phenixace/TOMG-Bench.
English
In this paper, we propose Text-based Open Molecule Generation Benchmark
(TOMG-Bench), the first benchmark to evaluate the open-domain molecule
generation capability of LLMs. TOMG-Bench encompasses a dataset of three major
tasks: molecule editing (MolEdit), molecule optimization (MolOpt), and
customized molecule generation (MolCustom). Each task further contains three
subtasks, with each subtask comprising 5,000 test samples. Given the inherent
complexity of open molecule generation, we have also developed an automated
evaluation system that helps measure both the quality and the accuracy of the
generated molecules. Our comprehensive benchmarking of 25 LLMs reveals the
current limitations and potential areas for improvement in text-guided molecule
discovery. Furthermore, with the assistance of OpenMolIns, a specialized
instruction tuning dataset proposed for solving challenges raised by
TOMG-Bench, Llama3.1-8B could outperform all the open-source general LLMs, even
surpassing GPT-3.5-turbo by 46.5\% on TOMG-Bench. Our codes and datasets are
available through https://github.com/phenixace/TOMG-Bench.Summary
AI-Generated Summary