ChatPaper.aiChatPaper

NatureLM: Decifrando a Linguagem da Natureza para Descoberta Científica

NatureLM: Deciphering the Language of Nature for Scientific Discovery

February 11, 2025
Autores: Yingce Xia, Peiran Jin, Shufang Xie, Liang He, Chuan Cao, Renqian Luo, Guoqing Liu, Yue Wang, Zequn Liu, Yuan-Jyue Chen, Zekun Guo, Yeqi Bai, Pan Deng, Yaosen Min, Ziheng Lu, Hongxia Hao, Han Yang, Jielan Li, Chang Liu, Jia Zhang, Jianwei Zhu, Kehan Wu, Wei Zhang, Kaiyuan Gao, Qizhi Pei, Qian Wang, Xixian Liu, Yanting Li, Houtian Zhu, Yeqing Lu, Mingqian Ma, Zun Wang, Tian Xie, Krzysztof Maziarz, Marwin Segler, Zhao Yang, Zilong Chen, Yu Shi, Shuxin Zheng, Lijun Wu, Chen Hu, Peggy Dai, Tie-Yan Liu, Haiguang Liu, Tao Qin
cs.AI

Resumo

Os modelos fundamentais revolucionaram o processamento de linguagem natural e a inteligência artificial, aprimorando significativamente a capacidade das máquinas de compreender e gerar idiomas humanos. Inspirados pelo sucesso desses modelos fundamentais, os pesquisadores desenvolveram modelos fundamentais para domínios científicos individuais, incluindo moléculas pequenas, materiais, proteínas, DNA e RNA. No entanto, esses modelos geralmente são treinados de forma isolada, sem a capacidade de integração entre diferentes domínios científicos. Reconhecendo que entidades dentro desses domínios podem ser representadas como sequências, que juntas formam a "linguagem da natureza", apresentamos o Modelo de Linguagem da Natureza (ou NatureLM, em resumo), um modelo fundamental científico baseado em sequências projetado para descobertas científicas. Pré-treinado com dados de múltiplos domínios científicos, o NatureLM oferece um modelo unificado e versátil que possibilita diversas aplicações, incluindo: (i) geração e otimização de moléculas pequenas, proteínas, RNA e materiais usando instruções de texto; (ii) geração/design entre domínios, como proteína para molécula e proteína para RNA; e (iii) alcançando desempenho de ponta em tarefas como tradução de SMILES para IUPAC e retrosíntese em USPTO-50k. O NatureLM oferece uma abordagem generalista promissora para várias tarefas científicas, incluindo descoberta de medicamentos (geração/otimização de hits, otimização de ADMET, síntese), design de novos materiais e desenvolvimento de proteínas ou nucleotídeos terapêuticos. Desenvolvemos modelos NatureLM em diferentes tamanhos (1 bilhão, 8 bilhões e 46,7 bilhões de parâmetros) e observamos uma clara melhoria no desempenho à medida que o tamanho do modelo aumenta.
English
Foundation models have revolutionized natural language processing and artificial intelligence, significantly enhancing how machines comprehend and generate human languages. Inspired by the success of these foundation models, researchers have developed foundation models for individual scientific domains, including small molecules, materials, proteins, DNA, and RNA. However, these models are typically trained in isolation, lacking the ability to integrate across different scientific domains. Recognizing that entities within these domains can all be represented as sequences, which together form the "language of nature", we introduce Nature Language Model (briefly, NatureLM), a sequence-based science foundation model designed for scientific discovery. Pre-trained with data from multiple scientific domains, NatureLM offers a unified, versatile model that enables various applications including: (i) generating and optimizing small molecules, proteins, RNA, and materials using text instructions; (ii) cross-domain generation/design, such as protein-to-molecule and protein-to-RNA generation; and (iii) achieving state-of-the-art performance in tasks like SMILES-to-IUPAC translation and retrosynthesis on USPTO-50k. NatureLM offers a promising generalist approach for various scientific tasks, including drug discovery (hit generation/optimization, ADMET optimization, synthesis), novel material design, and the development of therapeutic proteins or nucleotides. We have developed NatureLM models in different sizes (1 billion, 8 billion, and 46.7 billion parameters) and observed a clear improvement in performance as the model size increases.

Summary

AI-Generated Summary

PDF202February 12, 2025