BitNet b1.58 Rapporto Tecnico 2B4TBitNet b1.58 2B4T Technical Report
Presentiamo BitNet b1.58 2B4T, il primo Large Language Model (LLM) open-source nativo a 1-bit su scala di 2 miliardi di parametri. Addestrato su un corpus di 4 trilioni di token, il modello è stato rigorosamente valutato attraverso benchmark che coprono comprensione del linguaggio, ragionamento matematico, competenza nella programmazione e abilità conversazionale. I nostri risultati dimostrano che BitNet b1.58 2B4T raggiunge prestazioni paragonabili ai principali LLM open-weight a precisione completa di dimensioni simili, offrendo al contempo significativi vantaggi in termini di efficienza computazionale, tra cui una riduzione sostanziale dell'impronta di memoria, del consumo energetico e della latenza di decodifica. Per facilitare ulteriori ricerche e adozioni, i pesi del modello sono rilasciati tramite Hugging Face insieme a implementazioni open-source di inferenza per architetture sia GPU che CPU.