ChatPaper.aiChatPaper

Rapporto Tecnico Jan-nano

Jan-nano Technical Report

June 28, 2025
Autori: Alan Dao, Dinh Bach Vu
cs.AI

Abstract

La maggior parte dei modelli linguistici affronta un compromesso fondamentale in cui capacità potenti richiedono risorse computazionali sostanziali. Con Jan-nano, un modello linguistico da 4 miliardi di parametri, superiamo questo vincolo ridefinendo l'efficienza attraverso una specializzazione radicale: invece di cercare di sapere tutto, padroneggia l'arte di trovare qualsiasi cosa all'istante. Addestrato a partire da Qwen3-4B utilizzando il nostro innovativo sistema multi-stadio RLVR, che elimina completamente la dipendenza dall'addestramento basato sulla previsione del token successivo (SFT), Jan-nano raggiunge l'83,2% sul benchmark SimpleQA con integrazione MCP, pur funzionando su hardware consumer. Con una lunghezza contestuale di 128K, Jan-nano dimostra che l'intelligenza non riguarda la scala, ma la strategia.
English
Most language models face a fundamental tradeoff where powerful capabilities require substantial computational resources. We shatter this constraint with Jan-nano, a 4B parameter language model that redefines efficiency through radical specialization: instead of trying to know everything, it masters the art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel multi-stage RLVR system that completely eliminates reliance on next token prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with MCP integration while running on consumer hardware. With 128K context length, Jan-nano proves that intelligence isn't about scale, it's about strategy.
PDF61July 1, 2025