ChatPaper.aiChatPaper

RakutenAI-7B: 日本語対応の大規模言語モデルの拡張

RakutenAI-7B: Extending Large Language Models for Japanese

March 21, 2024
著者: Rakuten Group, Aaron Levine, Connie Huang, Chenguang Wang, Eduardo Batista, Ewa Szymanska, Hongyi Ding, Hou Wei Chou, Jean-François Pessiot, Johanes Effendi, Justin Chiu, Kai Torben Ohlhus, Karan Chopra, Keiji Shinzato, Koji Murakami, Lee Xiong, Lei Chen, Maki Kubota, Maksim Tkachenko, Miroku Lee, Naoki Takahashi, Prathyusha Jwalapuram, Ryutaro Tatsushima, Saurabh Jain, Sunil Kumar Yadav, Ting Cai, Wei-Te Chen, Yandi Xia, Yuki Nakayama, Yutaka Higashiyama
cs.AI

要旨

我々はRakutenAI-7Bを紹介します。これは日本語に特化した大規模言語モデルのスイートであり、オープンな7Bモデルの中でJapanese LM Harnessベンチマークにおいて最高の性能を達成しています。基盤モデルに加えて、指示チューニングおよびチャットチューニングされたモデル、それぞれRakutenAI-7B-instructとRakutenAI-7B-chatを、Apache 2.0ライセンスの下でリリースします。
English
We introduce RakutenAI-7B, a suite of Japanese-oriented large language models that achieve the best performance on the Japanese LM Harness benchmarks among the open 7B models. Along with the foundation model, we release instruction- and chat-tuned models, RakutenAI-7B-instruct and RakutenAI-7B-chat respectively, under the Apache 2.0 license.

Summary

AI-Generated Summary

PDF143December 15, 2024