ChatPaper.aiChatPaper

Een Taalmodel Leren om de Taal van Tools te Spreken

Teaching a Language Model to Speak the Language of Tools

June 29, 2025
Auteurs: Simeon Emanuilov
cs.AI

Samenvatting

Externe toolintegratie via functie-aanroepen is essentieel voor praktische taalmodeltoepassingen, maar de meeste meertalige modellen beschikken niet over betrouwbare toolgebruiksmogelijkheden in niet-Engelse talen. Zelfs state-of-the-art meertalige modellen hebben moeite met het bepalen van wanneer tools moeten worden gebruikt en het genereren van de gestructureerde uitvoer die nodig is voor functie-aanroepen, waarbij vaak taalverwarring optreedt bij prompts in minder-ondersteunde talen. Dit werk presenteert een methodologie voor het aanpassen van bestaande taalmmodellen om robuust toolgebruik in elke doeltaal mogelijk te maken, met Bulgaars als casestudy. De aanpak omvat voortgezette training van de BgGPT-modelreeks (2,6B, 9B, 27B parameters) op een nieuwe tweetalige dataset van 10.035 voorbeelden van functie-aanroepen, ontworpen om gestandaardiseerde protocollen zoals MCP (Model Context Protocol) te ondersteunen. Het onderzoek introduceert TUCAN (Tool-Using Capable Assistant Navigator), dat een verbetering tot 28,75% bereikt in de nauwkeurigheid van functie-aanroepen vergeleken met basismodellen, terwijl het kernbegrip van de taal behouden blijft, zoals geverifieerd op gevestigde Bulgaarse benchmarks. Naast nauwkeurigheidswinst tonen TUCAN-modellen productieklaar antwoordformattering met schone, parseerbare functie-aanroepen, in contrast met de uitgebreide en inconsistente uitvoer van basismodellen. De modellen, evaluatieraamwerk en dataset worden vrijgegeven om replicatie voor andere talen mogelijk te maken. Dit werk demonstreert een praktische aanpak voor het uitbreiden van tool-augmented mogelijkheden buiten Engels-centrische systemen.
English
External tool integration through function-calling is essential for practical language model applications, yet most multilingual models lack reliable tool-use capabilities in non-English languages. Even state-of-the-art multilingual models struggle with determining when to use tools and generating the structured outputs required for function calls, often exhibiting language confusion when prompted in lower-resource languages. This work presents a methodology for adapting existing language models to enable robust tool use in any target language, using Bulgarian as a case study. The approach involves continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a novel bilingual dataset of 10,035 function-calling examples designed to support standardized protocols like MCP (Model Context Protocol). The research introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to 28.75% improvement in function-calling accuracy over base models while preserving core language understanding, as verified on established Bulgarian benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready response formatting with clean, parsable function calls, contrasting with the verbose and inconsistent outputs of base models. The models, evaluation framework, and dataset are released to enable replication for other languages. This work demonstrates a practical approach for extending tool-augmented capabilities beyond English-centric systems.
PDF41July 1, 2025