ChatPaper.aiChatPaper

Jamba-1.5:スケールでのハイブリッドTransformer-Mambaモデル

Jamba-1.5: Hybrid Transformer-Mamba Models at Scale

August 22, 2024
著者: Jamba Team, Barak Lenz, Alan Arazi, Amir Bergman, Avshalom Manevich, Barak Peleg, Ben Aviram, Chen Almagor, Clara Fridman, Dan Padnos, Daniel Gissin, Daniel Jannai, Dor Muhlgay, Dor Zimberg, Edden M Gerber, Elad Dolev, Eran Krakovsky, Erez Safahi, Erez Schwartz, Gal Cohen, Gal Shachaf, Haim Rozenblum, Hofit Bata, Ido Blass, Inbal Magar, Itay Dalmedigos, Jhonathan Osin, Julie Fadlon, Maria Rozman, Matan Danos, Michael Gokhman, Mor Zusman, Naama Gidron, Nir Ratner, Noam Gat, Noam Rozen, Oded Fried, Ohad Leshno, Omer Antverg, Omri Abend, Opher Lieber, Or Dagan, Orit Cohavi, Raz Alon, Ro'i Belson, Roi Cohen, Rom Gilad, Roman Glozman, Shahar Lev, Shaked Meirom, Tal Delbari, Tal Ness, Tomer Asida, Tom Ben Gal, Tom Braude, Uriya Pumerantz, Yehoshua Cohen, Yonatan Belinkov, Yuval Globerson, Yuval Peleg Levy, Yoav Shoham
cs.AI

要旨

私たちは、Jambaアーキテクチャに基づく新しい命令チューニングされた大規模言語モデルであるJamba-1.5を提案します。Jambaは、高いスループットと低いメモリ使用量を提供するハイブリッドTransformer-Mambaエキスパートミックスアーキテクチャであり、コンテキスト長にわたってTransformerモデルと同等以上の品質を維持します。私たちは、Jamba-1.5-Large(活性パラメータ94B)とJamba-1.5-Mini(活性パラメータ12B)の2つのモデルサイズをリリースします。両モデルは、さまざまな会話および命令に従う能力に微調整されており、256Kトークンの効果的なコンテキスト長を持ち、オープンウェイトモデルの中で最大のものです。コスト効果の高い推論をサポートするために、256Kトークンのコンテキストを処理する際にJamba-1.5-Largeを8つの80GB GPUを搭載したマシンに適合させることを可能にする新しい量子化技術であるExpertsInt8を導入します。さまざまな学術およびチャットボットのベンチマークで評価した結果、Jamba-1.5モデルは優れた結果を達成し、高いスループットを提供し、長いコンテキストのベンチマークで他のオープンウェイトモデルを凌駕しています。両サイズのモデルウェイトはJambaオープンモデルライセンスの下で一般に利用可能であり、ExpertsInt8はオープンソースとして公開されています。
English
We present Jamba-1.5, new instruction-tuned large language models based on our Jamba architecture. Jamba is a hybrid Transformer-Mamba mixture of experts architecture, providing high throughput and low memory usage across context lengths, while retaining the same or better quality as Transformer models. We release two model sizes: Jamba-1.5-Large, with 94B active parameters, and Jamba-1.5-Mini, with 12B active parameters. Both models are fine-tuned for a variety of conversational and instruction-following capabilties, and have an effective context length of 256K tokens, the largest amongst open-weight models. To support cost-effective inference, we introduce ExpertsInt8, a novel quantization technique that allows fitting Jamba-1.5-Large on a machine with 8 80GB GPUs when processing 256K-token contexts without loss of quality. When evaluated on a battery of academic and chatbot benchmarks, Jamba-1.5 models achieve excellent results while providing high throughput and outperforming other open-weight models on long-context benchmarks. The model weights for both sizes are publicly available under the Jamba Open Model License and we release ExpertsInt8 as open source.

Summary

AI-Generated Summary

PDF343November 16, 2024