RWKV-7 "Гусь" с экспрессивной динамической эволюцией состоянияRWKV-7 "Goose" with Expressive Dynamic State Evolution
Мы представляем RWKV-7 "Goose", новую архитектуру моделирования последовательностей, а также предобученные языковые модели, которые устанавливают новый эталон производительности на задачах с 3 миллиардами параметров в многоязычных сценариях и соответствуют текущему уровню SoTA для английского языка, несмотря на обучение на значительно меньшем количестве токенов по сравнению с другими ведущими моделями с 3 миллиардами параметров. При этом модели RWKV-7 требуют только постоянного использования памяти и постоянного времени вывода на токен. RWKV-7 представляет новую обобщенную формулировку дельта-правила с векторным управлением и скоростями обучения в контексте, а также ослабленное правило замены значений. Мы показываем, что RWKV-7 способна выполнять отслеживание состояний и распознавать все регулярные языки, сохраняя параллелизуемость обучения. Это превосходит возможности трансформеров в рамках стандартных гипотез о сложности, которые ограничены классом TC^0. Чтобы продемонстрировать возможности RWKV-7 в языковом моделировании, мы также представляем расширенный открытый многоязычный корпус объемом 3,1 триллиона токенов и обучаем четыре модели RWKV-7 с количеством параметров от 0,19 до 2,9 миллиардов на этом наборе данных. Для поддержки открытости, воспроизводимости и внедрения мы публикуем наши модели и список компонентов набора данных по адресу https://huggingface.co/RWKV, а также наш код для обучения и вывода по адресу https://github.com/RWKV/RWKV-LM, все под лицензией Apache 2.0.