Гипер-соединения
Hyper-Connections
September 29, 2024
Авторы: Defa Zhu, Hongzhi Huang, Zihao Huang, Yutao Zeng, Yunyao Mao, Banggu Wu, Qiyang Min, Xun Zhou
cs.AI
Аннотация
Мы представляем гипер-соединения, простой, но эффективный метод, который может служить альтернативой остаточным соединениям. Этот подход специально решает общие недостатки, наблюдаемые в вариантах остаточных соединений, такие как эффект взаимного исчезновения градиента и коллапс представления. Теоретически гипер-соединения позволяют сети регулировать силу соединений между признаками на разных уровнях и динамически перестраивать слои. Мы проводим эксперименты, сосредотачиваясь на предварительном обучении больших языковых моделей, включая плотные и разреженные модели, где гипер-соединения показывают значительное улучшение производительности по сравнению с остаточными соединениями. Дополнительные эксперименты, проведенные на задачах зрения, также демонстрируют аналогичные улучшения. Мы предполагаем, что этот метод будет широко применим и полезен в широком спектре проблем искусственного интеллекта.
English
We present hyper-connections, a simple yet effective method that can serve as
an alternative to residual connections. This approach specifically addresses
common drawbacks observed in residual connection variants, such as the seesaw
effect between gradient vanishing and representation collapse. Theoretically,
hyper-connections allow the network to adjust the strength of connections
between features at different depths and dynamically rearrange layers. We
conduct experiments focusing on the pre-training of large language models,
including dense and sparse models, where hyper-connections show significant
performance improvements over residual connections. Additional experiments
conducted on vision tasks also demonstrate similar improvements. We anticipate
that this method will be broadly applicable and beneficial across a wide range
of AI problems.Summary
AI-Generated Summary