BitNet b1.58 2B4T 技术报告BitNet b1.58 2B4T Technical Report
我们推出BitNet b1.58 2B4T,这是首个开源的、原生1比特的大型语言模型(LLM),参数规模达20亿。该模型在4万亿token的语料库上训练完成,并经过严格评估,涵盖语言理解、数学推理、编程能力及对话表现等多个基准测试。结果表明,BitNet b1.58 2B4T在性能上与同规模领先的开源全精度LLM相当,同时在计算效率上展现出显著优势,包括大幅降低的内存占用、能耗和解码延迟。为促进进一步研究与采用,模型权重已通过Hugging Face发布,并提供了适用于GPU和CPU架构的开源推理实现。