Een Taalmodel Leren om de Taal van Tools te Spreken
Teaching a Language Model to Speak the Language of Tools
June 29, 2025
Auteurs: Simeon Emanuilov
cs.AI
Samenvatting
Externe toolintegratie via functie-aanroepen is essentieel voor praktische
taalmodeltoepassingen, maar de meeste meertalige modellen beschikken niet over
betrouwbare toolgebruiksmogelijkheden in niet-Engelse talen. Zelfs state-of-the-art
meertalige modellen hebben moeite met het bepalen van wanneer tools moeten worden
gebruikt en het genereren van de gestructureerde uitvoer die nodig is voor
functie-aanroepen, waarbij vaak taalverwarring optreedt bij prompts in
minder-ondersteunde talen. Dit werk presenteert een methodologie voor het
aanpassen van bestaande taalmmodellen om robuust toolgebruik in elke doeltaal
mogelijk te maken, met Bulgaars als casestudy. De aanpak omvat voortgezette
training van de BgGPT-modelreeks (2,6B, 9B, 27B parameters) op een nieuwe
tweetalige dataset van 10.035 voorbeelden van functie-aanroepen, ontworpen om
gestandaardiseerde protocollen zoals MCP (Model Context Protocol) te ondersteunen.
Het onderzoek introduceert TUCAN (Tool-Using Capable Assistant Navigator), dat
een verbetering tot 28,75% bereikt in de nauwkeurigheid van functie-aanroepen
vergeleken met basismodellen, terwijl het kernbegrip van de taal behouden blijft,
zoals geverifieerd op gevestigde Bulgaarse benchmarks. Naast nauwkeurigheidswinst
tonen TUCAN-modellen productieklaar antwoordformattering met schone, parseerbare
functie-aanroepen, in contrast met de uitgebreide en inconsistente uitvoer van
basismodellen. De modellen, evaluatieraamwerk en dataset worden vrijgegeven om
replicatie voor andere talen mogelijk te maken. Dit werk demonstreert een
praktische aanpak voor het uitbreiden van tool-augmented mogelijkheden buiten
Engels-centrische systemen.
English
External tool integration through function-calling is essential for practical
language model applications, yet most multilingual models lack reliable
tool-use capabilities in non-English languages. Even state-of-the-art
multilingual models struggle with determining when to use tools and generating
the structured outputs required for function calls, often exhibiting language
confusion when prompted in lower-resource languages. This work presents a
methodology for adapting existing language models to enable robust tool use in
any target language, using Bulgarian as a case study. The approach involves
continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a
novel bilingual dataset of 10,035 function-calling examples designed to support
standardized protocols like MCP (Model Context Protocol). The research
introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to
28.75% improvement in function-calling accuracy over base models while
preserving core language understanding, as verified on established Bulgarian
benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready
response formatting with clean, parsable function calls, contrasting with the
verbose and inconsistent outputs of base models. The models, evaluation
framework, and dataset are released to enable replication for other languages.
This work demonstrates a practical approach for extending tool-augmented
capabilities beyond English-centric systems.