ChatPaper.aiChatPaper

Jan-nano Technisch Rapport

Jan-nano Technical Report

June 28, 2025
Auteurs: Alan Dao, Dinh Bach Vu
cs.AI

Samenvatting

De meeste taalmodelen worden geconfronteerd met een fundamentele afweging: krachtige mogelijkheden vereisen aanzienlijke rekenbronnen. Wij doorbreken deze beperking met Jan-nano, een taalmodel met 4B parameters dat efficiëntie herdefinieert door radicale specialisatie: in plaats van te proberen alles te weten, beheerst het de kunst om alles direct te vinden. Gefinetuned van Qwen3-4B met behulp van ons innovatieve multi-stage RLVR-systeem, dat de afhankelijkheid van next token prediction training (SFT) volledig elimineert, behaalt Jan-nano 83,2% op de SimpleQA-benchmark met MCP-integratie terwijl het draait op consumentenhardware. Met een contextlengte van 128K bewijst Jan-nano dat intelligentie niet draait om schaal, maar om strategie.
English
Most language models face a fundamental tradeoff where powerful capabilities require substantial computational resources. We shatter this constraint with Jan-nano, a 4B parameter language model that redefines efficiency through radical specialization: instead of trying to know everything, it masters the art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel multi-stage RLVR system that completely eliminates reliance on next token prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with MCP integration while running on consumer hardware. With 128K context length, Jan-nano proves that intelligence isn't about scale, it's about strategy.
PDF61July 1, 2025