ChatPaper.aiChatPaper

Jan-nano技術レポート

Jan-nano Technical Report

June 28, 2025
著者: Alan Dao, Dinh Bach Vu
cs.AI

要旨

ほとんどの言語モデルは、強力な能力を発揮するために多大な計算リソースを必要とするという根本的なトレードオフに直面しています。私たちはこの制約をJan-nanoによって打破しました。Jan-nanoは4Bパラメータの言語モデルであり、ラジカルな専門化を通じて効率性を再定義します。つまり、すべてを知ろうとするのではなく、何かを瞬時に見つける技術を極めることに特化しています。Qwen3-4Bを基に、次トークン予測訓練(SFT)への依存を完全に排除した新しい多段階RLVRシステムでファインチューニングされたJan-nanoは、MCP統合によりSimpleQAベンチマークで83.2%を達成し、消費者向けハードウェア上で動作します。128Kのコンテキスト長を備えたJan-nanoは、知性が規模ではなく戦略にあることを証明しています。
English
Most language models face a fundamental tradeoff where powerful capabilities require substantial computational resources. We shatter this constraint with Jan-nano, a 4B parameter language model that redefines efficiency through radical specialization: instead of trying to know everything, it masters the art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel multi-stage RLVR system that completely eliminates reliance on next token prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with MCP integration while running on consumer hardware. With 128K context length, Jan-nano proves that intelligence isn't about scale, it's about strategy.
PDF41July 1, 2025