ChatPaper.aiChatPaper

Enseñar a un Modelo de Lenguaje a Hablar el Lenguaje de las Herramientas

Teaching a Language Model to Speak the Language of Tools

June 29, 2025
Autores: Simeon Emanuilov
cs.AI

Resumen

La integración de herramientas externas mediante llamadas a funciones es esencial para aplicaciones prácticas de modelos de lenguaje, sin embargo, la mayoría de los modelos multilingües carecen de capacidades confiables de uso de herramientas en idiomas distintos al inglés. Incluso los modelos multilingües más avanzados tienen dificultades para determinar cuándo usar herramientas y generar las salidas estructuradas necesarias para las llamadas a funciones, mostrando a menudo confusión lingüística cuando se les solicita en idiomas con menos recursos. Este trabajo presenta una metodología para adaptar modelos de lenguaje existentes y permitir un uso robusto de herramientas en cualquier idioma objetivo, utilizando el búlgaro como caso de estudio. El enfoque implica el entrenamiento continuo de la serie de modelos BgGPT (2.6B, 9B, 27B parámetros) en un nuevo conjunto de datos bilingüe de 10,035 ejemplos de llamadas a funciones diseñado para soportar protocolos estandarizados como MCP (Protocolo de Contexto del Modelo). La investigación introduce TUCAN (Asistente Navegador con Capacidad de Uso de Herramientas), que logra una mejora de hasta el 28.75% en la precisión de las llamadas a funciones en comparación con los modelos base, mientras preserva la comprensión fundamental del lenguaje, según se verifica en benchmarks establecidos para el búlgaro. Más allá de las ganancias en precisión, los modelos TUCAN demuestran un formato de respuesta listo para producción con llamadas a funciones limpias y analizables, en contraste con las salidas verbosas e inconsistentes de los modelos base. Los modelos, el marco de evaluación y el conjunto de datos se publican para permitir la replicación en otros idiomas. Este trabajo demuestra un enfoque práctico para extender las capacidades aumentadas con herramientas más allá de los sistemas centrados en el inglés.
English
External tool integration through function-calling is essential for practical language model applications, yet most multilingual models lack reliable tool-use capabilities in non-English languages. Even state-of-the-art multilingual models struggle with determining when to use tools and generating the structured outputs required for function calls, often exhibiting language confusion when prompted in lower-resource languages. This work presents a methodology for adapting existing language models to enable robust tool use in any target language, using Bulgarian as a case study. The approach involves continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a novel bilingual dataset of 10,035 function-calling examples designed to support standardized protocols like MCP (Model Context Protocol). The research introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to 28.75% improvement in function-calling accuracy over base models while preserving core language understanding, as verified on established Bulgarian benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready response formatting with clean, parsable function calls, contrasting with the verbose and inconsistent outputs of base models. The models, evaluation framework, and dataset are released to enable replication for other languages. This work demonstrates a practical approach for extending tool-augmented capabilities beyond English-centric systems.
PDF41July 1, 2025