Relatório Técnico Jan-nano
Jan-nano Technical Report
June 28, 2025
Autores: Alan Dao, Dinh Bach Vu
cs.AI
Resumo
A maioria dos modelos de linguagem enfrenta uma troca fundamental em que capacidades poderosas exigem recursos computacionais substanciais. Nós quebramos essa limitação com o Jan-nano, um modelo de linguagem de 4B parâmetros que redefine a eficiência por meio de uma especialização radical: em vez de tentar saber tudo, ele domina a arte de encontrar qualquer coisa instantaneamente. Ajustado a partir do Qwen3-4B usando nosso novo sistema multiestágio RLVR, que elimina completamente a dependência do treinamento de previsão do próximo token (SFT), o Jan-nano alcança 83,2% no benchmark SimpleQA com integração MCP, enquanto roda em hardware de consumo. Com um comprimento de contexto de 128K, o Jan-nano prova que a inteligência não é sobre escala, mas sobre estratégia.
English
Most language models face a fundamental tradeoff where powerful capabilities
require substantial computational resources. We shatter this constraint with
Jan-nano, a 4B parameter language model that redefines efficiency through
radical specialization: instead of trying to know everything, it masters the
art of finding anything instantly. Fine-tuned from Qwen3-4B using our novel
multi-stage RLVR system that completely eliminates reliance on next token
prediction training (SFT), Jan-nano achieves 83.2% on SimpleQA benchmark with
MCP integration while running on consumer hardware. With 128K context length,
Jan-nano proves that intelligence isn't about scale, it's about strategy.