ChatPaper.aiChatPaper

Addestramento di LLM Riparametrizzato tramite Trasformazione di Equivalenza Ortogonale

Reparameterized LLM Training via Orthogonal Equivalence Transformation

June 9, 2025
Autori: Zeju Qiu, Simon Buchholz, Tim Z. Xiao, Maximilian Dax, Bernhard Schölkopf, Weiyang Liu
cs.AI

Abstract

Mentre i grandi modelli linguistici (LLM) stanno guidando il rapido progresso dell'intelligenza artificiale, l'addestramento efficace e affidabile di questi modelli di grandi dimensioni rimane una delle sfide più significative del settore. Per affrontare questa sfida, proponiamo POET, un innovativo algoritmo di addestramento riparametrizzato che utilizza la Trasformazione di Equivalenza Ortogonale per ottimizzare i neuroni. Nello specifico, POET riparametrizza ogni neurone con due matrici ortogonali apprendibili e una matrice di pesi casuali fissa. Grazie alla sua dimostrata capacità di preservare le proprietà spettrali delle matrici di pesi, POET può ottimizzare in modo stabile la funzione obiettivo con un miglioramento della generalizzazione. Abbiamo inoltre sviluppato approssimazioni efficienti che rendono POET flessibile e scalabile per l'addestramento di reti neurali su larga scala. Esperimenti estensivi convalidano l'efficacia e la scalabilità di POET nell'addestramento di LLM.
English
While large language models (LLMs) are driving the rapid advancement of artificial intelligence, effectively and reliably training these large models remains one of the field's most significant challenges. To address this challenge, we propose POET, a novel reParameterized training algorithm that uses Orthogonal Equivalence Transformation to optimize neurons. Specifically, POET reparameterizes each neuron with two learnable orthogonal matrices and a fixed random weight matrix. Because of its provable preservation of spectral properties of weight matrices, POET can stably optimize the objective function with improved generalization. We further develop efficient approximations that make POET flexible and scalable for training large-scale neural networks. Extensive experiments validate the effectiveness and scalability of POET in training LLMs.
PDF22June 12, 2025