ChatPaper.aiChatPaper

Ensinando um Modelo de Linguagem a Falar a Linguagem das Ferramentas

Teaching a Language Model to Speak the Language of Tools

June 29, 2025
Autores: Simeon Emanuilov
cs.AI

Resumo

A integração de ferramentas externas por meio de chamadas de função é essencial para aplicações práticas de modelos de linguagem, mas a maioria dos modelos multilíngues carece de capacidades confiáveis de uso de ferramentas em idiomas que não o inglês. Mesmo os modelos multilíngues mais avançados enfrentam dificuldades para determinar quando usar ferramentas e gerar as saídas estruturadas necessárias para chamadas de função, frequentemente exibindo confusão linguística quando solicitados em idiomas de menor recurso. Este trabalho apresenta uma metodologia para adaptar modelos de linguagem existentes, permitindo o uso robusto de ferramentas em qualquer idioma-alvo, utilizando o búlgaro como estudo de caso. A abordagem envolve o treinamento contínuo da série de modelos BgGPT (2,6B, 9B, 27B parâmetros) em um novo conjunto de dados bilíngue de 10.035 exemplos de chamadas de função, projetado para suportar protocolos padronizados como o MCP (Model Context Protocol). A pesquisa introduz o TUCAN (Tool-Using Capable Assistant Navigator), que alcança uma melhoria de até 28,75% na precisão de chamadas de função em relação aos modelos base, mantendo a compreensão fundamental da linguagem, conforme verificado em benchmarks estabelecidos para o búlgaro. Além dos ganhos de precisão, os modelos TUCAN demonstram formatação de respostas prontas para produção, com chamadas de função limpas e analisáveis, em contraste com as saídas verbosas e inconsistentes dos modelos base. Os modelos, o framework de avaliação e o conjunto de dados são disponibilizados para permitir a replicação em outros idiomas. Este trabalho demonstra uma abordagem prática para estender as capacidades aumentadas por ferramentas além dos sistemas centrados no inglês.
English
External tool integration through function-calling is essential for practical language model applications, yet most multilingual models lack reliable tool-use capabilities in non-English languages. Even state-of-the-art multilingual models struggle with determining when to use tools and generating the structured outputs required for function calls, often exhibiting language confusion when prompted in lower-resource languages. This work presents a methodology for adapting existing language models to enable robust tool use in any target language, using Bulgarian as a case study. The approach involves continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a novel bilingual dataset of 10,035 function-calling examples designed to support standardized protocols like MCP (Model Context Protocol). The research introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to 28.75% improvement in function-calling accuracy over base models while preserving core language understanding, as verified on established Bulgarian benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready response formatting with clean, parsable function calls, contrasting with the verbose and inconsistent outputs of base models. The models, evaluation framework, and dataset are released to enable replication for other languages. This work demonstrates a practical approach for extending tool-augmented capabilities beyond English-centric systems.
PDF41July 1, 2025