BitNet b1.58 2B4T Technisch RapportBitNet b1.58 2B4T Technical Report
We introduceren BitNet b1.58 2B4T, het eerste open-source, native 1-bit Large Language Model (LLM) op de schaal van 2 miljard parameters. Getraind op een corpus van 4 biljoen tokens, is het model grondig geëvalueerd op benchmarks die taalbegrip, wiskundig redeneren, programmeervaardigheid en conversatievermogen omvatten. Onze resultaten tonen aan dat BitNet b1.58 2B4T prestaties levert die vergelijkbaar zijn met toonaangevende open-weight, full-precision LLM's van vergelijkbare grootte, terwijl het aanzienlijke voordelen biedt op het gebied van rekenkundige efficiëntie, waaronder een aanzienlijk verlaagd geheugengebruik, energieverbruik en decodeerlatentie. Om verder onderzoek en adoptie te vergemakkelijken, worden de modelgewichten vrijgegeven via Hugging Face, samen met open-source inferentie-implementaties voor zowel GPU- als CPU-architecturen.