Rapport technique Jan-nano
Jan-nano Technical Report
June 28, 2025
Auteurs: Alan Dao, Dinh Bach Vu
cs.AI
Résumé
La plupart des modèles de langage sont confrontés à un compromis fondamental : des capacités puissantes nécessitent des ressources computationnelles substantielles. Nous brisons cette contrainte avec Jan-nano, un modèle de langage de 4 milliards de paramètres qui redéfinit l'efficacité grâce à une spécialisation radicale : au lieu de chercher à tout savoir, il maîtrise l'art de trouver instantanément n'importe quoi. Affiné à partir de Qwen3-4B en utilisant notre système RLVR multi-étapes innovant, qui élimine complètement la dépendance à l'entraînement par prédiction du token suivant (SFT), Jan-nano atteint 83,2 % sur le benchmark SimpleQA avec l'intégration MCP tout en fonctionnant sur du matériel grand public. Avec une longueur de contexte de 128K, Jan-nano démontre que l'intelligence ne réside pas dans l'échelle, mais dans la stratégie.
English
Most language models face a fundamental tradeoff where powerful capabilities
require substantial computational resources. We shatter this constraint with
Jan-nano, a 4B parameter language model that redefines efficiency through
radical specialization: instead of trying to know everything, it masters the
art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel
multi-stage RLVR system that completely eliminates reliance on next token
prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with
MCP integration while running on consumer hardware. With 128K context length,
Jan-nano proves that intelligence isn't about scale, it's about strategy.