ChatPaper.aiChatPaper

SimpleFold: Ripiegare le proteine è più semplice di quanto pensi

SimpleFold: Folding Proteins is Simpler than You Think

September 23, 2025
Autori: Yuyang Wang, Jiarui Lu, Navdeep Jaitly, Josh Susskind, Miguel Angel Bautista
cs.AI

Abstract

I modelli di folding proteico hanno ottenuto risultati rivoluzionari tipicamente attraverso una combinazione di integrazione di conoscenze di dominio nei blocchi architetturali e nelle pipeline di addestramento. Tuttavia, dato il successo dei modelli generativi in problemi diversi ma correlati, è naturale chiedersi se questi progetti architetturali siano una condizione necessaria per costruire modelli performanti. In questo articolo, introduciamo SimpleFold, il primo modello di folding proteico basato su flow-matching che utilizza esclusivamente blocchi transformer generici. I modelli di folding proteico impiegano tipicamente moduli computazionalmente costosi che coinvolgono aggiornamenti triangolari, rappresentazioni esplicite di coppie o molteplici obiettivi di addestramento curati per questo specifico dominio. Al contrario, SimpleFold utilizza blocchi transformer standard con livelli adattativi ed è addestrato tramite un obiettivo generativo di flow-matching con un termine strutturale aggiuntivo. Scaliamo SimpleFold a 3 miliardi di parametri e lo addestriamo su circa 9 milioni di strutture proteiche distillate insieme a dati sperimentali PDB. Su benchmark standard di folding, SimpleFold-3B raggiunge prestazioni competitive rispetto ai migliori modelli di riferimento; inoltre, SimpleFold dimostra una forte performance nella previsione in ensemble, che è tipicamente difficile per i modelli addestrati tramite obiettivi di ricostruzione deterministica. Grazie alla sua architettura generica, SimpleFold mostra efficienza nel deployment e nell'inferenza su hardware di livello consumer. SimpleFold mette in discussione la dipendenza da progetti architetturali complessi e specifici per il dominio nel folding proteico, aprendo uno spazio di progettazione alternativo per i progressi futuri.
English
Protein folding models have achieved groundbreaking results typically via a combination of integrating domain knowledge into the architectural blocks and training pipelines. Nonetheless, given the success of generative models across different but related problems, it is natural to question whether these architectural designs are a necessary condition to build performant models. In this paper, we introduce SimpleFold, the first flow-matching based protein folding model that solely uses general purpose transformer blocks. Protein folding models typically employ computationally expensive modules involving triangular updates, explicit pair representations or multiple training objectives curated for this specific domain. Instead, SimpleFold employs standard transformer blocks with adaptive layers and is trained via a generative flow-matching objective with an additional structural term. We scale SimpleFold to 3B parameters and train it on approximately 9M distilled protein structures together with experimental PDB data. On standard folding benchmarks, SimpleFold-3B achieves competitive performance compared to state-of-the-art baselines, in addition SimpleFold demonstrates strong performance in ensemble prediction which is typically difficult for models trained via deterministic reconstruction objectives. Due to its general-purpose architecture, SimpleFold shows efficiency in deployment and inference on consumer-level hardware. SimpleFold challenges the reliance on complex domain-specific architectures designs in protein folding, opening up an alternative design space for future progress.
PDF115September 25, 2025