Octopus v4 : Graphe de modèles de langageOctopus v4: Graph of language models
Les modèles de langage se sont avérés efficaces dans un large éventail d'applications, mais les modèles les plus sophistiqués sont souvent propriétaires. Par exemple, GPT-4 d'OpenAI et divers modèles d'Anthropic sont coûteux et consomment une quantité substantielle d'énergie. En revanche, la communauté open source a produit des modèles compétitifs, comme Llama3. De plus, des modèles de langage plus petits et spécialisés, tels que ceux conçus pour des tâches juridiques, médicales ou financières, ont surpassé leurs homologues propriétaires. Cet article présente une nouvelle approche qui utilise des tokens fonctionnels pour intégrer plusieurs modèles open source, chacun optimisé pour des tâches spécifiques. Notre nouveau modèle Octopus v4 exploite ces tokens fonctionnels pour diriger intelligemment les requêtes des utilisateurs vers le modèle vertical le plus approprié et reformater la requête pour obtenir les meilleures performances. Octopus v4, une évolution des modèles Octopus v1, v2 et v3, excelle dans la sélection, la compréhension des paramètres et le reformatage. De plus, nous explorons l'utilisation du graphe comme structure de données polyvalente qui coordonne efficacement plusieurs modèles open source en tirant parti des capacités du modèle Octopus et des tokens fonctionnels. Utilisez notre dépôt GitHub open source (https://www.nexa4ai.com/) pour essayer les modèles Octopus v4 (https://huggingface.co/NexaAIDev/Octopus-v4) et contribuer à un graphe plus étendu de modèles de langage. En activant des modèles de moins de 10 milliards de paramètres, nous avons atteint un score SOTA MMLU de 74,8 parmi les modèles de même niveau.