ChatPaper.aiChatPaper

GAPrune: Poda por Alinhamento de Gradiente para Incorporações com Consciência de Domínio

GAPrune: Gradient-Alignment Pruning for Domain-Aware Embeddings

September 13, 2025
Autores: Yixuan Tang, Yi Yang
cs.AI

Resumo

Modelos de incorporação específicos de domínio têm mostrado potencial para aplicações que exigem compreensão semântica especializada, como agentes de codificação e sistemas de recuperação financeira, frequentemente alcançando ganhos de desempenho superiores aos modelos gerais. No entanto, os modelos de incorporação state-of-the-art são tipicamente baseados em LLMs, que contêm bilhões de parâmetros, tornando o desafio de implantação em ambientes com recursos limitados. A compressão de modelos por meio de poda oferece uma solução promissora, mas os métodos de poda existentes tratam todos os parâmetros de forma uniforme, falhando em distinguir entre representações semânticas gerais e padrões específicos de domínio, levando a decisões de poda subótimas. Assim, propomos o GAPrune, uma estrutura de poda que aborda esse desafio considerando tanto a importância do domínio quanto a preservação da base linguística geral. Nosso método utiliza a Informação de Fisher para medir a importância e o alinhamento de gradiente de domínio geral para avaliar o comportamento dos parâmetros, combinando esses sinais usando nossa pontuação de Importância de Alinhamento de Domínio (DAI). Pontuações DAI mais baixas indicam que o parâmetro é menos importante para a tarefa do domínio ou cria conflitos entre os objetivos do domínio e os gerais. Experimentos em dois benchmarks de domínio, FinMTEB e ChemTEB, mostram que o GAPrune mantém o desempenho dentro de 2,5% dos modelos densos em poda one-shot com 50% de esparsidade, enquanto supera todas as baselines. Com retreinamento em 100 passos, o GAPrune alcança uma melhoria de +4,51% no FinMTEB e +1,73% no ChemTEB, demonstrando que nossa estratégia de poda não apenas preserva, mas também aprimora as capacidades específicas do domínio. Nossos achados demonstram que estratégias de poda fundamentadas podem alcançar compressão de modelos e especialização de domínio aprimorada, fornecendo à comunidade de pesquisa uma nova abordagem para o desenvolvimento.
English
Domain-specific embedding models have shown promise for applications that require specialized semantic understanding, such as coding agents and financial retrieval systems, often achieving higher performance gains than general models. However, state-of-the-art embedding models are typically based on LLMs, which contain billions of parameters, making deployment challenging in resource-constrained environments. Model compression through pruning offers a promising solution, but existing pruning methods treat all parameters uniformly, failing to distinguish between general semantic representations and domain-specific patterns, leading to suboptimal pruning decisions. Thus, we propose GAPrune, a pruning framework that addresses this challenge by considering both domain importance and preserving general linguistic foundation. Our method uses Fisher Information to measure importance and general-domain gradient alignment to assess parameter behavior, then combines these signals using our Domain Alignment Importance (DAI) scoring. Lower DAI scores indicate that the parameter is either less important for the domain task or creates conflicts between domain and general objectives. Experiments on two domain benchmarks, FinMTEB and ChemTEB, show that GAPrune maintains performance within 2.5% of dense models in one-shot pruning at 50% sparsity, while outperforming all baselines. With retraining in 100 steps, GAPrune achieves +4.51% improvement on FinMTEB and +1.73% on ChemTEB, demonstrating that our pruning strategy not only preserves but enhances domain-specific capabilities. Our findings demonstrate that principled pruning strategies can achieve model compression and enhanced domain specialization, providing the research community with a new approach for development.
PDF22September 16, 2025