AdaptiVocab:通過輕量級詞彙適配提升LLM在特定領域的效率AdaptiVocab: Enhancing LLM Efficiency in Focused Domains through
Lightweight Vocabulary Adaptation
大型语言模型(LLMs)已展现出作为通用模型的卓越多功能性。然而,其广泛适用性伴随着高昂的计算开销,特别是在自回归解码过程中,每一步都需要进行一次前向传播。在特定领域场景下,通用能力并非必需,且可被效率所替代。本研究中,我们采用了一种新颖的领域适应视角,通过调整词汇表以适应目标领域,从而降低延迟和计算成本。我们提出了AdaptiVocab,一种端到端的词汇适应方法,旨在提升LLMs在低资源领域中的效率。AdaptiVocab可应用于任何分词器和架构,通过用领域特定的n-gram词汇替换原有词汇,减少输入处理和输出生成所需的词汇量。AdaptiVocab采用现有嵌入的指数加权组合来初始化新的n-词汇嵌入,并实施轻量级的微调阶段,该阶段可在单一GPU上高效完成。我们评估了两个7B规模的LLMs在三个细分领域中的表现,考量了效率、生成质量及最终任务性能。结果表明,AdaptiVocab在不影响性能的前提下,减少了超过25%的词汇使用量。