Jan-nano Technisch Rapport
Jan-nano Technical Report
June 28, 2025
Auteurs: Alan Dao, Dinh Bach Vu
cs.AI
Samenvatting
De meeste taalmodelen worden geconfronteerd met een fundamentele afweging: krachtige mogelijkheden vereisen aanzienlijke rekenbronnen. Wij doorbreken deze beperking met Jan-nano, een taalmodel met 4B parameters dat efficiëntie herdefinieert door radicale specialisatie: in plaats van te proberen alles te weten, beheerst het de kunst om alles direct te vinden. Gefinetuned van Qwen3-4B met behulp van ons innovatieve multi-stage RLVR-systeem, dat de afhankelijkheid van next token prediction training (SFT) volledig elimineert, behaalt Jan-nano 83,2% op de SimpleQA-benchmark met MCP-integratie terwijl het draait op consumentenhardware. Met een contextlengte van 128K bewijst Jan-nano dat intelligentie niet draait om schaal, maar om strategie.
English
Most language models face a fundamental tradeoff where powerful capabilities
require substantial computational resources. We shatter this constraint with
Jan-nano, a 4B parameter language model that redefines efficiency through
radical specialization: instead of trying to know everything, it masters the
art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel
multi-stage RLVR system that completely eliminates reliance on next token
prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with
MCP integration while running on consumer hardware. With 128K context length,
Jan-nano proves that intelligence isn't about scale, it's about strategy.