ChatPaper.aiChatPaper

Spostare l'efficienza dell'IA dalla compressione centrata sul modello a quella centrata sui dati

Shifting AI Efficiency From Model-Centric to Data-Centric Compression

May 25, 2025
Autori: Xuyang Liu, Zichen Wen, Shaobo Wang, Junjie Chen, Zhishan Tao, Yubo Wang, Xiangqi Jin, Chang Zou, Yiyu Wang, Chenfei Liao, Xu Zheng, Honggang Chen, Weijia Li, Xuming Hu, Conghui He, Linfeng Zhang
cs.AI

Abstract

Il rapido progresso dei grandi modelli linguistici (LLM) e dei modelli linguistici multimodali (MLLM) si è storicamente basato sullo scaling centrato sul modello, aumentando il numero di parametri da milioni a centinaia di miliardi per ottenere miglioramenti nelle prestazioni. Tuttavia, avvicinandoci ai limiti hardware delle dimensioni dei modelli, il collo di bottiglia computazionale dominante si è spostato radicalmente verso il costo quadratico del meccanismo di self-attention su sequenze di token lunghe, ora guidato da contesti testuali ultra-lunghi, immagini ad alta risoluzione e video estesi. In questo position paper, sosteniamo che il focus della ricerca per un'IA efficiente si sta spostando dalla compressione centrata sul modello alla compressione centrata sui dati. Posizioniamo la compressione dei token come la nuova frontiera, che migliora l'efficienza dell'IA riducendo il numero di token durante l'addestramento o l'inferenza del modello. Attraverso un'analisi completa, esaminiamo prima i recenti sviluppi nell'IA a contesto lungo in vari domini e stabiliamo un framework matematico unificato per le strategie esistenti di efficienza dei modelli, dimostrando perché la compressione dei token rappresenta un cambiamento di paradigma cruciale per affrontare il sovraccarico dei contesti lunghi. Successivamente, esaminiamo sistematicamente il panorama della ricerca sulla compressione dei token, analizzandone i benefici fondamentali e identificandone i vantaggi significativi in diversi scenari. Inoltre, forniamo un'analisi approfondita delle attuali sfide nella ricerca sulla compressione dei token e delineiamo promettenti direzioni future. In definitiva, il nostro lavoro mira a offrire una nuova prospettiva sull'efficienza dell'IA, sintetizzare la ricerca esistente e catalizzare sviluppi innovativi per affrontare le sfide che le lunghezze crescenti dei contesti pongono al progresso della comunità dell'IA.
English
The rapid advancement of large language models (LLMs) and multi-modal LLMs (MLLMs) has historically relied on model-centric scaling through increasing parameter counts from millions to hundreds of billions to drive performance gains. However, as we approach hardware limits on model size, the dominant computational bottleneck has fundamentally shifted to the quadratic cost of self-attention over long token sequences, now driven by ultra-long text contexts, high-resolution images, and extended videos. In this position paper, we argue that the focus of research for efficient AI is shifting from model-centric compression to data-centric compression. We position token compression as the new frontier, which improves AI efficiency via reducing the number of tokens during model training or inference. Through comprehensive analysis, we first examine recent developments in long-context AI across various domains and establish a unified mathematical framework for existing model efficiency strategies, demonstrating why token compression represents a crucial paradigm shift in addressing long-context overhead. Subsequently, we systematically review the research landscape of token compression, analyzing its fundamental benefits and identifying its compelling advantages across diverse scenarios. Furthermore, we provide an in-depth analysis of current challenges in token compression research and outline promising future directions. Ultimately, our work aims to offer a fresh perspective on AI efficiency, synthesize existing research, and catalyze innovative developments to address the challenges that increasing context lengths pose to the AI community's advancement.
PDF1455May 27, 2025