ChatPaper.aiChatPaper

Insegnare a un Modello Linguistico a Parlare il Linguaggio degli Strumenti

Teaching a Language Model to Speak the Language of Tools

June 29, 2025
Autori: Simeon Emanuilov
cs.AI

Abstract

L'integrazione di strumenti esterni tramite il richiamo di funzioni è essenziale per applicazioni pratiche dei modelli linguistici, tuttavia la maggior parte dei modelli multilingue manca di capacità affidabili di utilizzo degli strumenti nelle lingue diverse dall'inglese. Anche i modelli multilingue all'avanguardia faticano a determinare quando utilizzare gli strumenti e a generare gli output strutturati necessari per il richiamo di funzioni, mostrando spesso confusione linguistica quando sollecitati in lingue con risorse limitate. Questo lavoro presenta una metodologia per adattare i modelli linguistici esistenti al fine di abilitare un utilizzo robusto degli strumenti in qualsiasi lingua target, utilizzando il bulgaro come caso di studio. L'approccio prevede un addestramento continuo della serie di modelli BgGPT (2,6B, 9B, 27B parametri) su un nuovo dataset bilingue di 10.035 esempi di richiamo di funzioni progettato per supportare protocolli standardizzati come MCP (Model Context Protocol). La ricerca introduce TUCAN (Tool-Using Capable Assistant Navigator), che raggiunge un miglioramento fino al 28,75% nell'accuratezza del richiamo di funzioni rispetto ai modelli base, preservando al contempo la comprensione linguistica fondamentale, come verificato su benchmark bulgari consolidati. Oltre ai guadagni in termini di accuratezza, i modelli TUCAN dimostrano una formattazione delle risposte pronta per la produzione con richiami di funzioni puliti e analizzabili, in contrasto con gli output verbosi e incoerenti dei modelli base. I modelli, il framework di valutazione e il dataset vengono rilasciati per consentire la replicazione per altre lingue. Questo lavoro dimostra un approccio pratico per estendere le capacità potenziate dagli strumenti oltre i sistemi centrati sull'inglese.
English
External tool integration through function-calling is essential for practical language model applications, yet most multilingual models lack reliable tool-use capabilities in non-English languages. Even state-of-the-art multilingual models struggle with determining when to use tools and generating the structured outputs required for function calls, often exhibiting language confusion when prompted in lower-resource languages. This work presents a methodology for adapting existing language models to enable robust tool use in any target language, using Bulgarian as a case study. The approach involves continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a novel bilingual dataset of 10,035 function-calling examples designed to support standardized protocols like MCP (Model Context Protocol). The research introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to 28.75% improvement in function-calling accuracy over base models while preserving core language understanding, as verified on established Bulgarian benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready response formatting with clean, parsable function calls, contrasting with the verbose and inconsistent outputs of base models. The models, evaluation framework, and dataset are released to enable replication for other languages. This work demonstrates a practical approach for extending tool-augmented capabilities beyond English-centric systems.
PDF41July 1, 2025