ChatPaper.aiChatPaper

SmallThinker: Una Familia de Modelos de Lenguaje Grande Eficientes Entrenados Nativamente para Implementación Local

SmallThinker: A Family of Efficient Large Language Models Natively Trained for Local Deployment

July 28, 2025
Autores: Yixin Song, Zhenliang Xue, Dongliang Wei, Feiyang Chen, Jianxiang Gao, Junchen Liu, Hangyu Liang, Guangshuo Qin, Chengrong Tian, Bo Wen, Longyu Zhao, Xinrui Zheng, Zeyu Mi, Haibo Chen
cs.AI

Resumen

Mientras que los modelos de lenguaje de gran escala (LLMs) de vanguardia continúan ampliando los límites de sus capacidades, su implementación sigue confinada a infraestructuras en la nube impulsadas por GPU. Desafiamos este paradigma con SmallThinker, una familia de LLMs diseñados nativamente —no adaptados— para las limitaciones únicas de los dispositivos locales: baja potencia computacional, memoria limitada y almacenamiento lento. A diferencia de los enfoques tradicionales que principalmente comprimen modelos existentes construidos para la nube, diseñamos SmallThinker desde cero para prosperar dentro de estas limitaciones. Nuestra innovación radica en una arquitectura consciente de la implementación que transforma las restricciones en principios de diseño. Primero, introducimos una estructura dispersa de dos niveles que combina una Mixture-of-Experts (MoE) de grano fino con redes de alimentación dispersas, reduciendo drásticamente las demandas computacionales sin sacrificar la capacidad del modelo. Segundo, para superar el cuello de botella de E/S del almacenamiento lento, diseñamos un enrutador de pre-atención que permite a nuestro motor de inferencia co-diseñado pre-cargar parámetros de expertos desde el almacenamiento mientras se calcula la atención, ocultando efectivamente la latencia del almacenamiento que de otro modo paralizaría la inferencia en el dispositivo. Tercero, para la eficiencia de memoria, utilizamos un mecanismo de atención dispersa híbrido NoPE-RoPE que reduce drásticamente los requisitos de la caché KV. Lanzamos SmallThinker-4B-A0.6B y SmallThinker-21B-A3B, que logran puntuaciones de rendimiento de vanguardia e incluso superan a LLMs más grandes. Notablemente, nuestro sistema co-diseñado elimina en gran medida la necesidad de hardware GPU costoso: con cuantización Q4_0, ambos modelos superan los 20 tokens/s en CPUs de consumo ordinario, mientras consumen solo 1GB y 8GB de memoria, respectivamente. SmallThinker está disponible públicamente en hf.co/PowerInfer/SmallThinker-4BA0.6B-Instruct y hf.co/PowerInfer/SmallThinker-21BA3B-Instruct.
English
While frontier large language models (LLMs) continue to push capability boundaries, their deployment remains confined to GPU-powered cloud infrastructure. We challenge this paradigm with SmallThinker, a family of LLMs natively designed - not adapted - for the unique constraints of local devices: weak computational power, limited memory, and slow storage. Unlike traditional approaches that mainly compress existing models built for clouds, we architect SmallThinker from the ground up to thrive within these limitations. Our innovation lies in a deployment-aware architecture that transforms constraints into design principles. First, We introduce a two-level sparse structure combining fine-grained Mixture-of-Experts (MoE) with sparse feed-forward networks, drastically reducing computational demands without sacrificing model capacity. Second, to conquer the I/O bottleneck of slow storage, we design a pre-attention router that enables our co-designed inference engine to prefetch expert parameters from storage while computing attention, effectively hiding storage latency that would otherwise cripple on-device inference. Third, for memory efficiency, we utilize NoPE-RoPE hybrid sparse attention mechanism to slash KV cache requirements. We release SmallThinker-4B-A0.6B and SmallThinker-21B-A3B, which achieve state-of-the-art performance scores and even outperform larger LLMs. Remarkably, our co-designed system mostly eliminates the need for expensive GPU hardware: with Q4_0 quantization, both models exceed 20 tokens/s on ordinary consumer CPUs, while consuming only 1GB and 8GB of memory respectively. SmallThinker is publicly available at hf.co/PowerInfer/SmallThinker-4BA0.6B-Instruct and hf.co/PowerInfer/SmallThinker-21BA3B-Instruct.
PDF562July 29, 2025