Enseñar a un Modelo de Lenguaje a Hablar el Lenguaje de las Herramientas
Teaching a Language Model to Speak the Language of Tools
June 29, 2025
Autores: Simeon Emanuilov
cs.AI
Resumen
La integración de herramientas externas mediante llamadas a funciones es esencial para aplicaciones prácticas de modelos de lenguaje, sin embargo, la mayoría de los modelos multilingües carecen de capacidades confiables de uso de herramientas en idiomas distintos al inglés. Incluso los modelos multilingües más avanzados tienen dificultades para determinar cuándo usar herramientas y generar las salidas estructuradas necesarias para las llamadas a funciones, mostrando a menudo confusión lingüística cuando se les solicita en idiomas con menos recursos. Este trabajo presenta una metodología para adaptar modelos de lenguaje existentes y permitir un uso robusto de herramientas en cualquier idioma objetivo, utilizando el búlgaro como caso de estudio. El enfoque implica el entrenamiento continuo de la serie de modelos BgGPT (2.6B, 9B, 27B parámetros) en un nuevo conjunto de datos bilingüe de 10,035 ejemplos de llamadas a funciones diseñado para soportar protocolos estandarizados como MCP (Protocolo de Contexto del Modelo). La investigación introduce TUCAN (Asistente Navegador con Capacidad de Uso de Herramientas), que logra una mejora de hasta el 28.75% en la precisión de las llamadas a funciones en comparación con los modelos base, mientras preserva la comprensión fundamental del lenguaje, según se verifica en benchmarks establecidos para el búlgaro. Más allá de las ganancias en precisión, los modelos TUCAN demuestran un formato de respuesta listo para producción con llamadas a funciones limpias y analizables, en contraste con las salidas verbosas e inconsistentes de los modelos base. Los modelos, el marco de evaluación y el conjunto de datos se publican para permitir la replicación en otros idiomas. Este trabajo demuestra un enfoque práctico para extender las capacidades aumentadas con herramientas más allá de los sistemas centrados en el inglés.
English
External tool integration through function-calling is essential for practical
language model applications, yet most multilingual models lack reliable
tool-use capabilities in non-English languages. Even state-of-the-art
multilingual models struggle with determining when to use tools and generating
the structured outputs required for function calls, often exhibiting language
confusion when prompted in lower-resource languages. This work presents a
methodology for adapting existing language models to enable robust tool use in
any target language, using Bulgarian as a case study. The approach involves
continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a
novel bilingual dataset of 10,035 function-calling examples designed to support
standardized protocols like MCP (Model Context Protocol). The research
introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to
28.75% improvement in function-calling accuracy over base models while
preserving core language understanding, as verified on established Bulgarian
benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready
response formatting with clean, parsable function calls, contrasting with the
verbose and inconsistent outputs of base models. The models, evaluation
framework, and dataset are released to enable replication for other languages.
This work demonstrates a practical approach for extending tool-augmented
capabilities beyond English-centric systems.