BitNet b1.58 2B4T Technischer BerichtBitNet b1.58 2B4T Technical Report
Wir stellen BitNet b1.58 2B4T vor, das erste Open-Source, native 1-Bit Large Language Model (LLM) mit 2 Milliarden Parametern. Das Modell, das auf einem Korpus von 4 Billionen Tokens trainiert wurde, wurde umfassend anhand von Benchmarks bewertet, die Sprachverständnis, mathematisches Denken, Programmierfähigkeiten und Konversationsfähigkeit abdecken. Unsere Ergebnisse zeigen, dass BitNet b1.58 2B4T eine Leistung erzielt, die mit führenden Open-Weight, Full-Precision LLMs ähnlicher Größe vergleichbar ist, während es erhebliche Vorteile in Bezug auf die Recheneffizienz bietet, einschließlich eines deutlich reduzierten Speicherbedarfs, Energieverbrauchs und Decodierungslatenz. Um weitere Forschung und Nutzung zu erleichtern, werden die Modellgewichte über Hugging Face veröffentlicht, zusammen mit Open-Source-Inferenzimplementierungen für GPU- und CPU-Architekturen.