ChatPaper.aiChatPaper

Einem Sprachmodell beizubringen, die Sprache der Werkzeuge zu sprechen

Teaching a Language Model to Speak the Language of Tools

June 29, 2025
Autoren: Simeon Emanuilov
cs.AI

Zusammenfassung

Die Integration externer Tools durch Funktionsaufrufe ist entscheidend für praktische Anwendungen von Sprachmodellen, doch den meisten mehrsprachigen Modellen fehlen zuverlässige Fähigkeiten zur Werkzeugnutzung in nicht-englischen Sprachen. Selbst state-of-the-art mehrsprachige Modelle haben Schwierigkeiten, den richtigen Zeitpunkt für die Nutzung von Tools zu bestimmen und die strukturierten Ausgaben zu erzeugen, die für Funktionsaufrufe erforderlich sind. Oft zeigen sie Sprachverwirrung, wenn sie in ressourcenärmeren Sprachen angestoßen werden. Diese Arbeit präsentiert eine Methodik zur Anpassung bestehender Sprachmodelle, um eine robuste Werkzeugnutzung in jeder Zielsprache zu ermöglichen, wobei Bulgarisch als Fallstudie dient. Der Ansatz umfasst das fortgesetzte Training der BgGPT-Modellreihe (2,6B, 9B, 27B Parameter) auf einem neuartigen zweisprachigen Datensatz mit 10.035 Beispielen für Funktionsaufrufe, die standardisierte Protokolle wie MCP (Model Context Protocol) unterstützen. Die Forschung führt TUCAN (Tool-Using Capable Assistant Navigator) ein, das eine Verbesserung der Genauigkeit bei Funktionsaufrufen von bis zu 28,75 % gegenüber den Basismodellen erzielt, während das grundlegende Sprachverständnis erhalten bleibt, wie durch etablierte bulgarische Benchmarks bestätigt wird. Neben den Genauigkeitssteigerungen zeigen die TUCAN-Modelle produktionsreife Antwortformatierungen mit sauberen, parsbaren Funktionsaufrufen, im Gegensatz zu den ausführlichen und inkonsistenten Ausgaben der Basismodelle. Die Modelle, das Evaluierungsframework und der Datensatz werden veröffentlicht, um die Replikation für andere Sprachen zu ermöglichen. Diese Arbeit demonstriert einen praktischen Ansatz, um werkzeuggestützte Fähigkeiten über englischzentrierte Systeme hinaus zu erweitern.
English
External tool integration through function-calling is essential for practical language model applications, yet most multilingual models lack reliable tool-use capabilities in non-English languages. Even state-of-the-art multilingual models struggle with determining when to use tools and generating the structured outputs required for function calls, often exhibiting language confusion when prompted in lower-resource languages. This work presents a methodology for adapting existing language models to enable robust tool use in any target language, using Bulgarian as a case study. The approach involves continued training of the BgGPT model series (2.6B, 9B, 27B parameters) on a novel bilingual dataset of 10,035 function-calling examples designed to support standardized protocols like MCP (Model Context Protocol). The research introduces TUCAN (Tool-Using Capable Assistant Navigator), which achieves up to 28.75% improvement in function-calling accuracy over base models while preserving core language understanding, as verified on established Bulgarian benchmarks. Beyond accuracy gains, TUCAN models demonstrate production-ready response formatting with clean, parsable function calls, contrasting with the verbose and inconsistent outputs of base models. The models, evaluation framework, and dataset are released to enable replication for other languages. This work demonstrates a practical approach for extending tool-augmented capabilities beyond English-centric systems.
PDF41July 1, 2025