EquiformerV3: Масштабирование эффективных, выразительных и универсальных SE(3)-эквивариантных графовых трансформеров с механизмом внимания
EquiformerV3: Scaling Efficient, Expressive, and General SE(3)-Equivariant Graph Attention Transformers
April 10, 2026
Авторы: Yi-Lun Liao, Alexander J. Hoffman, Sabrina C. Shen, Alexandre Duval, Sam Walton Norwood, Tess Smidt
cs.AI
Аннотация
По мере того как SE(3)-эквивариантные графовые нейронные сети становятся основным инструментом для атомарного моделирования в 3D, повышение их эффективности, выразительной силы и физической согласованности превратилось в ключевую задачу для крупномасштабных приложений. В данной работе мы представляем EquiformerV3 — третье поколение SE(3)-эквивариантного графового трансформера с механизмом внимания, разработанное для прогресса по всем трем направлениям: эффективность, выразительность и универсальность. Основываясь на EquiformerV2, мы предлагаем три ключевых усовершенствования. Во-первых, мы оптимизировали программную реализацию, достигнув ускорения в 1,75 раза. Во-вторых, мы вводим простые и эффективные модификации в EquiformerV2, включая эквивариантную объединенную нормализацию слоев, улучшенные гиперпараметры прямой сети и механизм внимания с плавным радиальным обрезанием. В-третьих, мы предлагаем активации SwiGLU-S^2 для включения многочастичных взаимодействий с целью повышения теоретической выразительности и сохранения строгой эквивариантности при одновременном снижении сложности дискретизации S^2 сеток. В совокупности активации SwiGLU-S^2 и механизм внимания с плавным обрезанием обеспечивают точное моделирование плавно изменяющихся поверхностей потенциальной энергии (ППЭ), обобщая возможности EquiformerV3 на задачи, требующие энергосохраняющего моделирования и вычисления старших производных ППЭ. Благодаря этим улучшениям EquiformerV3, обученный с вспомогательной задачей шумоподавления неравновесных структур (DeNS), демонстрирует наилучшие результаты на наборах данных OC20, OMat24 и Matbench Discovery.
English
As SE(3)-equivariant graph neural networks mature as a core tool for 3D atomistic modeling, improving their efficiency, expressivity, and physical consistency has become a central challenge for large-scale applications. In this work, we introduce EquiformerV3, the third generation of the SE(3)-equivariant graph attention Transformer, designed to advance all three dimensions: efficiency, expressivity, and generality. Building on EquiformerV2, we have the following three key advances. First, we optimize the software implementation, achieving 1.75times speedup. Second, we introduce simple and effective modifications to EquiformerV2, including equivariant merged layer normalization, improved feedforward network hyper-parameters, and attention with smooth radius cutoff. Third, we propose SwiGLU-S^2 activations to incorporate many-body interactions for better theoretical expressivity and to preserve strict equivariance while reducing the complexity of sampling S^2 grids. Together, SwiGLU-S^2 activations and smooth-cutoff attention enable accurate modeling of smoothly varying potential energy surfaces (PES), generalizing EquiformerV3 to tasks requiring energy-conserving simulations and higher-order derivatives of PES. With these improvements, EquiformerV3 trained with the auxiliary task of denoising non-equilibrium structures (DeNS) achieves state-of-the-art results on OC20, OMat24, and Matbench Discovery.