ChatPaper.aiChatPaper

SHAKTI: エッジAIと低リソース環境に最適化された25億パラメータの小規模言語モデル

SHAKTI: A 2.5 Billion Parameter Small Language Model Optimized for Edge AI and Low-Resource Environments

October 15, 2024
著者: Syed Abdul Gaffar Shakhadri, Kruthika KR, Rakshit Aralimatti
cs.AI

要旨

Shaktiは、スマートフォン、ウェアラブル、およびIoTシステムなどのリソースに制約のある環境に特化した、25億パラメータの言語モデルを紹介します。Shaktiは、高性能NLPと最適化された効率性と精度を組み合わせ、計算リソースとメモリが限られているリアルタイムAIアプリケーションに最適です。Shaktiは、地域言語や特定の業務に対応し、医療、金融、顧客サービスなどの産業で優れた性能を発揮します。ベンチマーク評価により、Shaktiはより大きなモデルに競争力を持ちながらも、低遅延とデバイス上の効率性を維持し、エッジAIの主要なソリューションとして位置付けられます。
English
We introduce Shakti, a 2.5 billion parameter language model specifically optimized for resource-constrained environments such as edge devices, including smartphones, wearables, and IoT systems. Shakti combines high-performance NLP with optimized efficiency and precision, making it ideal for real-time AI applications where computational resources and memory are limited. With support for vernacular languages and domain-specific tasks, Shakti excels in industries such as healthcare, finance, and customer service. Benchmark evaluations demonstrate that Shakti performs competitively against larger models while maintaining low latency and on-device efficiency, positioning it as a leading solution for edge AI.

Summary

AI-Generated Summary

PDF83November 16, 2024