Informe Técnico de BitNet b1.58 2B4TBitNet b1.58 2B4T Technical Report
Presentamos BitNet b1.58 2B4T, el primer modelo de lenguaje grande (LLM) nativo de 1 bit de código abierto a escala de 2 mil millones de parámetros. Entrenado en un corpus de 4 billones de tokens, el modelo ha sido rigurosamente evaluado en benchmarks que cubren comprensión del lenguaje, razonamiento matemático, competencia en programación y habilidad conversacional. Nuestros resultados demuestran que BitNet b1.58 2B4T logra un rendimiento comparable al de los principales LLM de precisión completa y pesos abiertos de tamaño similar, al mismo tiempo que ofrece ventajas significativas en eficiencia computacional, incluyendo una huella de memoria sustancialmente reducida, menor consumo de energía y latencia de decodificación. Para facilitar la investigación y adopción futuras, los pesos del modelo se han publicado a través de Hugging Face junto con implementaciones de inferencia de código abierto para arquitecturas tanto de GPU como de CPU.