ChatPaper.aiChatPaper

Compromissos de Desempenho na Otimização de Pequenos Modelos de Linguagem para o Comércio Eletrônico

Performance Trade-offs of Optimizing Small Language Models for E-Commerce

October 24, 2025
Autores: Josip Tomo Licardo, Nikola Tankovic
cs.AI

Resumo

Os Grandes Modelos de Linguagem (LLMs) oferecem desempenho de ponta em tarefas de compreensão e geração de linguagem natural. No entanto, a implantação de modelos comerciais líderes para tarefas especializadas, como o comércio eletrônico, é frequentemente dificultada pelos altos custos computacionais, latência e despesas operacionais. Este artigo investiga a viabilidade de modelos menores, de pesos abertos, como uma alternativa eficiente em termos de recursos. Apresentamos uma metodologia para otimizar um modelo Llama 3.2 com um bilhão de parâmetros para o reconhecimento de intenções em comércio eletrônico multilíngue. O modelo foi ajustado (fine-tuned) usando Adaptação de Baixa Classificação Quantizada (QLoRA) em um conjunto de dados gerado sinteticamente e projetado para simular consultas de usuários do mundo real. Posteriormente, aplicamos técnicas de quantização pós-treinamento, criando versões otimizadas para GPU (GPTQ) e CPU (GGUF). Nossos resultados demonstram que o modelo especializado de 1B atinge 99% de precisão, equiparando-se ao desempenho do modelo GPT-4.1 significativamente maior. Uma análise de desempenho detalhada revelou trade-offs críticos e dependentes de hardware: enquanto o GPTQ de 4 bits reduziu o uso de VRAM em 41%, paradoxalmente retardou a inferência em 82% em uma arquitetura de GPU mais antiga (NVIDIA T4) devido à sobrecarga de desquantização. Por outro lado, os formatos GGUF em uma CPU alcançaram uma aceleração de até 18x no throughput de inferência e uma redução de mais de 90% no consumo de RAM em comparação com a linha de base FP16. Concluímos que modelos pequenos, de pesos abertos e devidamente otimizados não são apenas uma alternativa viável, mas mais adequada para aplicações específicas de domínio, oferecendo precisão de última geração a uma fração do custo computacional.
English
Large Language Models (LLMs) offer state-of-the-art performance in natural language understanding and generation tasks. However, the deployment of leading commercial models for specialized tasks, such as e-commerce, is often hindered by high computational costs, latency, and operational expenses. This paper investigates the viability of smaller, open-weight models as a resource-efficient alternative. We present a methodology for optimizing a one-billion-parameter Llama 3.2 model for multilingual e-commerce intent recognition. The model was fine-tuned using Quantized Low-Rank Adaptation (QLoRA) on a synthetically generated dataset designed to mimic real-world user queries. Subsequently, we applied post-training quantization techniques, creating GPU-optimized (GPTQ) and CPU-optimized (GGUF) versions. Our results demonstrate that the specialized 1B model achieves 99% accuracy, matching the performance of the significantly larger GPT-4.1 model. A detailed performance analysis revealed critical, hardware-dependent trade-offs: while 4-bit GPTQ reduced VRAM usage by 41%, it paradoxically slowed inference by 82% on an older GPU architecture (NVIDIA T4) due to dequantization overhead. Conversely, GGUF formats on a CPU achieved a speedup of up to 18x in inference throughput and a reduction of over 90% in RAM consumption compared to the FP16 baseline. We conclude that small, properly optimized open-weight models are not just a viable but a more suitable alternative for domain-specific applications, offering state-of-the-art accuracy at a fraction of the computational cost.
PDF22December 2, 2025