ChatPaper.aiChatPaper

Les modèles de langage affinés génèrent des matériaux inorganiques stables sous forme de texte.

Fine-Tuned Language Models Generate Stable Inorganic Materials as Text

February 6, 2024
Auteurs: Nate Gruver, Anuroop Sriram, Andrea Madotto, Andrew Gordon Wilson, C. Lawrence Zitnick, Zachary Ulissi
cs.AI

Résumé

Nous proposons d'affiner des modèles de langage de grande taille pour la génération de matériaux stables. Bien que non conventionnel, l'affinage de ces modèles sur des données atomistiques encodées en texte est simple à mettre en œuvre tout en étant fiable, avec environ 90 % des structures échantillonnées respectant les contraintes physiques sur les positions des atomes et les charges. En utilisant des calculs d'énergie au-dessus du diagramme de phases issus à la fois de potentiels appris par apprentissage automatique et de calculs DFT de référence, nous montrons que notre modèle le plus performant (LLaMA-2 70B affiné) peut générer des matériaux prédits comme métastables à un taux environ deux fois supérieur (49 % contre 28 %) à celui de CDVAE, un modèle de diffusion concurrent. Grâce à la flexibilité inhérente à l'utilisation de prompts textuels, nos modèles peuvent simultanément être utilisés pour la génération inconditionnelle de matériaux stables, le remplissage de structures partielles et la génération conditionnée par du texte. Enfin, nous montrons que la capacité des modèles de langage à capturer les symétries clés des structures cristallines s'améliore avec l'échelle du modèle, suggérant que les biais des modèles de langage pré-entraînés sont étonnamment bien adaptés aux données atomistiques.
English
We propose fine-tuning large language models for generation of stable materials. While unorthodox, fine-tuning large language models on text-encoded atomistic data is simple to implement yet reliable, with around 90% of sampled structures obeying physical constraints on atom positions and charges. Using energy above hull calculations from both learned ML potentials and gold-standard DFT calculations, we show that our strongest model (fine-tuned LLaMA-2 70B) can generate materials predicted to be metastable at about twice the rate (49% vs 28%) of CDVAE, a competing diffusion model. Because of text prompting's inherent flexibility, our models can simultaneously be used for unconditional generation of stable material, infilling of partial structures and text-conditional generation. Finally, we show that language models' ability to capture key symmetries of crystal structures improves with model scale, suggesting that the biases of pretrained LLMs are surprisingly well-suited for atomistic data.
PDF81December 15, 2024