ChatPaper.aiChatPaper

TOMG-Bench: Оценка LLM на генерации молекул на основе текста

TOMG-Bench: Evaluating LLMs on Text-based Open Molecule Generation

December 19, 2024
Авторы: Jiatong Li, Junxian Li, Yunqing Liu, Dongzhan Zhou, Qing Li
cs.AI

Аннотация

В данной статье мы предлагаем Бенчмарк генерации молекул на основе текста (TOMG-Bench), первый бенчмарк для оценки способности моделей языковых мощностей к генерации молекул в открытом домене. TOMG-Bench включает в себя набор данных из трех основных задач: редактирование молекул (MolEdit), оптимизация молекул (MolOpt) и настраиваемая генерация молекул (MolCustom). Каждая задача также содержит три подзадачи, причем каждая из них включает 5 000 тестовых образцов. Учитывая врожденную сложность генерации молекул в открытом домене, мы также разработали автоматизированную систему оценки, которая помогает измерить как качество, так и точность сгенерированных молекул. Наше всестороннее тестирование 25 моделей языковых мощностей позволяет выявить текущие ограничения и потенциальные области улучшения в области открытого поиска молекул с помощью текста. Более того, с помощью OpenMolIns, специализированного набора данных для настройки инструкций, предложенного для решения задач, поставленных в TOMG-Bench, модель Llama3.1-8B смогла превзойти все общедоступные общие модели языковых мощностей, даже превзойдя GPT-3.5-turbo на 46,5\% в рамках TOMG-Bench. Наши коды и наборы данных доступны по ссылке https://github.com/phenixace/TOMG-Bench.
English
In this paper, we propose Text-based Open Molecule Generation Benchmark (TOMG-Bench), the first benchmark to evaluate the open-domain molecule generation capability of LLMs. TOMG-Bench encompasses a dataset of three major tasks: molecule editing (MolEdit), molecule optimization (MolOpt), and customized molecule generation (MolCustom). Each task further contains three subtasks, with each subtask comprising 5,000 test samples. Given the inherent complexity of open molecule generation, we have also developed an automated evaluation system that helps measure both the quality and the accuracy of the generated molecules. Our comprehensive benchmarking of 25 LLMs reveals the current limitations and potential areas for improvement in text-guided molecule discovery. Furthermore, with the assistance of OpenMolIns, a specialized instruction tuning dataset proposed for solving challenges raised by TOMG-Bench, Llama3.1-8B could outperform all the open-source general LLMs, even surpassing GPT-3.5-turbo by 46.5\% on TOMG-Bench. Our codes and datasets are available through https://github.com/phenixace/TOMG-Bench.

Summary

AI-Generated Summary

PDF42December 20, 2024