ChatPaper.aiChatPaper

SmallThinker: Una Famiglia di Modelli Linguistici di Grandi Dimensioni Efficienti Addestrati Nativamente per il Deployment Locale

SmallThinker: A Family of Efficient Large Language Models Natively Trained for Local Deployment

July 28, 2025
Autori: Yixin Song, Zhenliang Xue, Dongliang Wei, Feiyang Chen, Jianxiang Gao, Junchen Liu, Hangyu Liang, Guangshuo Qin, Chengrong Tian, Bo Wen, Longyu Zhao, Xinrui Zheng, Zeyu Mi, Haibo Chen
cs.AI

Abstract

Mentre i modelli linguistici di grandi dimensioni (LLM) all'avanguardia continuano a spingere i confini delle capacità, il loro dispiegamento rimane confinato a infrastrutture cloud alimentate da GPU. Noi sfidiamo questo paradigma con SmallThinker, una famiglia di LLM progettati nativamente - non adattati - per i vincoli unici dei dispositivi locali: potenza computazionale ridotta, memoria limitata e archiviazione lenta. A differenza degli approcci tradizionali che comprimono principalmente modelli esistenti costruiti per il cloud, noi progettiamo SmallThinker da zero per prosperare all'interno di questi limiti. La nostra innovazione risiede in un'architettura consapevole del dispiegamento che trasforma i vincoli in principi di progettazione. In primo luogo, introduciamo una struttura sparsa a due livelli che combina una Mixture-of-Experts (MoE) a grana fine con reti feed-forward sparse, riducendo drasticamente le richieste computazionali senza sacrificare la capacità del modello. In secondo luogo, per superare il collo di bottiglia I/O dell'archiviazione lenta, progettiamo un router pre-attention che consente al nostro motore di inferenza co-progettato di prelevare i parametri degli esperti dall'archiviazione mentre calcola l'attenzione, nascondendo efficacemente la latenza di archiviazione che altrimenti comprometterebbe l'inferenza sul dispositivo. In terzo luogo, per l'efficienza della memoria, utilizziamo un meccanismo di attenzione sparsa ibrido NoPE-RoPE per ridurre drasticamente i requisiti della cache KV. Rilasciamo SmallThinker-4B-A0.6B e SmallThinker-21B-A3B, che raggiungono punteggi di prestazione all'avanguardia e superano persino LLM più grandi. Notevolmente, il nostro sistema co-progettato elimina per lo più la necessità di costose hardware GPU: con la quantizzazione Q4_0, entrambi i modelli superano i 20 token/s su CPU consumer ordinarie, consumando rispettivamente solo 1GB e 8GB di memoria. SmallThinker è disponibile pubblicamente su hf.co/PowerInfer/SmallThinker-4BA0.6B-Instruct e hf.co/PowerInfer/SmallThinker-21BA3B-Instruct.
English
While frontier large language models (LLMs) continue to push capability boundaries, their deployment remains confined to GPU-powered cloud infrastructure. We challenge this paradigm with SmallThinker, a family of LLMs natively designed - not adapted - for the unique constraints of local devices: weak computational power, limited memory, and slow storage. Unlike traditional approaches that mainly compress existing models built for clouds, we architect SmallThinker from the ground up to thrive within these limitations. Our innovation lies in a deployment-aware architecture that transforms constraints into design principles. First, We introduce a two-level sparse structure combining fine-grained Mixture-of-Experts (MoE) with sparse feed-forward networks, drastically reducing computational demands without sacrificing model capacity. Second, to conquer the I/O bottleneck of slow storage, we design a pre-attention router that enables our co-designed inference engine to prefetch expert parameters from storage while computing attention, effectively hiding storage latency that would otherwise cripple on-device inference. Third, for memory efficiency, we utilize NoPE-RoPE hybrid sparse attention mechanism to slash KV cache requirements. We release SmallThinker-4B-A0.6B and SmallThinker-21B-A3B, which achieve state-of-the-art performance scores and even outperform larger LLMs. Remarkably, our co-designed system mostly eliminates the need for expensive GPU hardware: with Q4_0 quantization, both models exceed 20 tokens/s on ordinary consumer CPUs, while consuming only 1GB and 8GB of memory respectively. SmallThinker is publicly available at hf.co/PowerInfer/SmallThinker-4BA0.6B-Instruct and hf.co/PowerInfer/SmallThinker-21BA3B-Instruct.
PDF502July 29, 2025