ChatPaper.aiChatPaper

Перепараметризованное обучение больших языковых моделей с помощью ортогональных эквивалентных преобразований

Reparameterized LLM Training via Orthogonal Equivalence Transformation

June 9, 2025
Авторы: Zeju Qiu, Simon Buchholz, Tim Z. Xiao, Maximilian Dax, Bernhard Schölkopf, Weiyang Liu
cs.AI

Аннотация

Хотя крупные языковые модели (LLM) способствуют стремительному развитию искусственного интеллекта, эффективное и надежное обучение таких моделей остается одной из наиболее значительных проблем в этой области. Для решения этой проблемы мы предлагаем POET — новый алгоритм обучения с перепараметризацией, который использует ортогональное эквивалентное преобразование для оптимизации нейронов. В частности, POET перепараметризует каждый нейрон с помощью двух обучаемых ортогональных матриц и фиксированной случайной матрицы весов. Благодаря доказательному сохранению спектральных свойств матриц весов, POET позволяет стабильно оптимизировать целевую функцию с улучшенной обобщающей способностью. Мы также разработали эффективные аппроксимации, которые делают POET гибким и масштабируемым для обучения крупномасштабных нейронных сетей. Многочисленные эксперименты подтверждают эффективность и масштабируемость POET при обучении крупных языковых моделей.
English
While large language models (LLMs) are driving the rapid advancement of artificial intelligence, effectively and reliably training these large models remains one of the field's most significant challenges. To address this challenge, we propose POET, a novel reParameterized training algorithm that uses Orthogonal Equivalence Transformation to optimize neurons. Specifically, POET reparameterizes each neuron with two learnable orthogonal matrices and a fixed random weight matrix. Because of its provable preservation of spectral properties of weight matrices, POET can stably optimize the objective function with improved generalization. We further develop efficient approximations that make POET flexible and scalable for training large-scale neural networks. Extensive experiments validate the effectiveness and scalability of POET in training LLMs.
PDF22June 12, 2025