ChatPaper.aiChatPaper

Jan-nano Technischer Bericht

Jan-nano Technical Report

June 28, 2025
Autoren: Alan Dao, Dinh Bach Vu
cs.AI

Zusammenfassung

Die meisten Sprachmodelle stehen vor einem grundlegenden Zielkonflikt, bei dem leistungsstarke Fähigkeiten erhebliche Rechenressourcen erfordern. Wir durchbrechen diese Beschränkung mit Jan-nano, einem 4B-Parameter-Sprachmodell, das Effizienz durch radikale Spezialisierung neu definiert: Anstatt zu versuchen, alles zu wissen, beherrscht es die Kunst, alles sofort zu finden. Feinabgestimmt von Qwen3-4B mithilfe unseres neuartigen mehrstufigen RLVR-Systems, das die Abhängigkeit von Next-Token-Prediction-Training (SFT) vollständig eliminiert, erreicht Jan-nano 83,2 % auf dem SimpleQA-Benchmark mit MCP-Integration, während es auf Consumer-Hardware läuft. Mit einer Kontextlänge von 128K beweist Jan-nano, dass Intelligenz nicht von der Größe, sondern von der Strategie abhängt.
English
Most language models face a fundamental tradeoff where powerful capabilities require substantial computational resources. We shatter this constraint with Jan-nano, a 4B parameter language model that redefines efficiency through radical specialization: instead of trying to know everything, it masters the art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel multi-stage RLVR system that completely eliminates reliance on next token prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with MCP integration while running on consumer hardware. With 128K context length, Jan-nano proves that intelligence isn't about scale, it's about strategy.
PDF41July 1, 2025