Insegnare a un Modello Linguistico a Parlare il Linguaggio degli Strumenti
Teaching a Language Model to Speak the Language of Tools
June 29, 2025
Autori: Simeon Emanuilov
cs.AI
Abstract
L'integrazione di strumenti esterni tramite il richiamo di funzioni è essenziale per applicazioni pratiche dei modelli linguistici, tuttavia la maggior parte dei modelli multilingue manca di capacità affidabili di utilizzo degli strumenti nelle lingue diverse dall'inglese. Anche i modelli multilingue all'avanguardia faticano a determinare quando utilizzare gli strumenti e a generare gli output strutturati necessari per il richiamo di funzioni, mostrando spesso confusione linguistica quando sollecitati in lingue con risorse limitate. Questo lavoro presenta una metodologia per adattare i modelli linguistici esistenti al fine di abilitare un utilizzo robusto degli strumenti in qualsiasi lingua target, utilizzando il bulgaro come caso di studio. L'approccio prevede un addestramento continuo della serie di modelli BgGPT (2,6B, 9B, 27B parametri) su un nuovo dataset bilingue di 10.035 esempi di richiamo di funzioni progettato per supportare protocolli standardizzati come MCP (Model Context Protocol). La ricerca introduce TUCAN (Tool-Using Capable Assistant Navigator), che raggiunge un miglioramento fino al 28,75% nell'accuratezza del richiamo di funzioni rispetto ai modelli base, preservando al contempo la comprensione linguistica fondamentale, come verificato su benchmark bulgari consolidati. Oltre ai guadagni in termini di accuratezza, i modelli TUCAN dimostrano una formattazione delle risposte pronta per la produzione con richiami di funzioni puliti e analizzabili, in contrasto con gli output verbosi e incoerenti dei modelli base. I modelli, il framework di valutazione e il dataset vengono rilasciati per consentire la replicazione per altre lingue. Questo lavoro dimostra un approccio pratico per estendere le capacità potenziate dagli strumenti oltre i sistemi centrati sull'inglese.
English
External tool integration through function-calling is essential for practical
language model applications, yet most multilingual models lack reliable
tool-use capabilities in non-English languages. Even state-of-the-art
multilingual models struggle with determining when to use tools and generating
the structured outputs required for function calls, often exhibiting language
confusion when prompted in lower-resource languages. This work presents a
methodology for adapting existing language models to enable robust tool use in
any target language, using Bulgarian as a case study. The approach involves
continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a
novel bilingual dataset of 10,035 function-calling examples designed to support
standardized protocols like MCP (Model Context Protocol). The research
introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to
28.75% improvement in function-calling accuracy over base models while
preserving core language understanding, as verified on established Bulgarian
benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready
response formatting with clean, parsable function calls, contrasting with the
verbose and inconsistent outputs of base models. The models, evaluation
framework, and dataset are released to enable replication for other languages.
This work demonstrates a practical approach for extending tool-augmented
capabilities beyond English-centric systems.