ChatPaper.aiChatPaper

TOMG-Bench: Evaluierung von LLMs bei der textbasierten offenen Molekülerzeugung

TOMG-Bench: Evaluating LLMs on Text-based Open Molecule Generation

December 19, 2024
Autoren: Jiatong Li, Junxian Li, Yunqing Liu, Dongzhan Zhou, Qing Li
cs.AI

Zusammenfassung

In diesem Paper schlagen wir das Textbasierte Offene Molekülerzeugungs-Benchmark (TOMG-Bench) vor, das erste Benchmark zur Bewertung der offenen Molekülerzeugungsfähigkeit von LLMs. TOMG-Bench umfasst einen Datensatz von drei Hauptaufgaben: Molekülbearbeitung (MolEdit), Moleküloptimierung (MolOpt) und individuelle Molekülerzeugung (MolCustom). Jede Aufgabe enthält weiterhin drei Unteraufgaben, wobei jede Unteraufgabe 5.000 Testproben umfasst. Angesichts der inhärenten Komplexität der offenen Molekülerzeugung haben wir auch ein automatisiertes Bewertungssystem entwickelt, das hilft, sowohl die Qualität als auch die Genauigkeit der erzeugten Moleküle zu messen. Unser umfassendes Benchmarking von 25 LLMs zeigt die aktuellen Einschränkungen und potenziellen Verbesserungsbereiche bei der textgesteuerten Molekülerkennung auf. Darüber hinaus konnte mit Hilfe von OpenMolIns, einem spezialisierten Instruktionsabstimmungsdatensatz, der zur Bewältigung der Herausforderungen von TOMG-Bench vorgeschlagen wurde, Llama3.1-8B alle Open-Source-Allgemein-LLMs übertreffen, sogar GPT-3.5-turbo um 46,5\% auf TOMG-Bench. Unsere Codes und Datensätze sind über https://github.com/phenixace/TOMG-Bench verfügbar.
English
In this paper, we propose Text-based Open Molecule Generation Benchmark (TOMG-Bench), the first benchmark to evaluate the open-domain molecule generation capability of LLMs. TOMG-Bench encompasses a dataset of three major tasks: molecule editing (MolEdit), molecule optimization (MolOpt), and customized molecule generation (MolCustom). Each task further contains three subtasks, with each subtask comprising 5,000 test samples. Given the inherent complexity of open molecule generation, we have also developed an automated evaluation system that helps measure both the quality and the accuracy of the generated molecules. Our comprehensive benchmarking of 25 LLMs reveals the current limitations and potential areas for improvement in text-guided molecule discovery. Furthermore, with the assistance of OpenMolIns, a specialized instruction tuning dataset proposed for solving challenges raised by TOMG-Bench, Llama3.1-8B could outperform all the open-source general LLMs, even surpassing GPT-3.5-turbo by 46.5\% on TOMG-Bench. Our codes and datasets are available through https://github.com/phenixace/TOMG-Bench.

Summary

AI-Generated Summary

PDF42December 20, 2024