ChatPaper.aiChatPaper

Modelos de Linguagem Ajustados Geram Materiais Inorgânicos Estáveis como Texto

Fine-Tuned Language Models Generate Stable Inorganic Materials as Text

February 6, 2024
Autores: Nate Gruver, Anuroop Sriram, Andrea Madotto, Andrew Gordon Wilson, C. Lawrence Zitnick, Zachary Ulissi
cs.AI

Resumo

Propomos o ajuste fino de grandes modelos de linguagem para a geração de materiais estáveis. Embora pouco convencional, o ajuste fino de grandes modelos de linguagem em dados atomísticos codificados em texto é simples de implementar e confiável, com cerca de 90% das estruturas amostradas obedecendo às restrições físicas sobre posições e cargas dos átomos. Utilizando cálculos de energia acima do casco (energy above hull) tanto de potenciais de aprendizado de máquina quanto de cálculos DFT de referência, mostramos que nosso modelo mais robusto (LLaMA-2 70B ajustado) pode gerar materiais previstos como metaestáveis a uma taxa aproximadamente duas vezes maior (49% vs 28%) que o CDVAE, um modelo de difusão concorrente. Devido à flexibilidade inerente do prompting textual, nossos modelos podem ser usados simultaneamente para geração incondicional de materiais estáveis, preenchimento de estruturas parciais e geração condicionada por texto. Por fim, mostramos que a capacidade dos modelos de linguagem de capturar simetrias-chave das estruturas cristalinas melhora com a escala do modelo, sugerindo que os vieses dos LLMs pré-treinados são surpreendentemente adequados para dados atomísticos.
English
We propose fine-tuning large language models for generation of stable materials. While unorthodox, fine-tuning large language models on text-encoded atomistic data is simple to implement yet reliable, with around 90% of sampled structures obeying physical constraints on atom positions and charges. Using energy above hull calculations from both learned ML potentials and gold-standard DFT calculations, we show that our strongest model (fine-tuned LLaMA-2 70B) can generate materials predicted to be metastable at about twice the rate (49% vs 28%) of CDVAE, a competing diffusion model. Because of text prompting's inherent flexibility, our models can simultaneously be used for unconditional generation of stable material, infilling of partial structures and text-conditional generation. Finally, we show that language models' ability to capture key symmetries of crystal structures improves with model scale, suggesting that the biases of pretrained LLMs are surprisingly well-suited for atomistic data.
PDF81February 8, 2026