ChatPaper.aiChatPaper

ドメイン特化型AIのための小型言語モデルのファインチューニング:エッジAIの視点から

Fine-Tuning Small Language Models for Domain-Specific AI: An Edge AI Perspective

March 3, 2025
著者: Rakshit Aralimatti, Syed Abdul Gaffar Shakhadri, Kruthika KR, Kartik Basavaraj Angadi
cs.AI

要旨

エッジデバイスに大規模言語モデルを展開する際には、高い計算要求、エネルギー消費、そして潜在的なデータプライバシーリスクといった固有の課題が存在します。本論文では、これらの制約に正面から取り組むShakti Small Language Models (SLMs)であるShakti-100M、Shakti-250M、Shakti-500Mを紹介します。効率的なアーキテクチャ、量子化技術、そして責任あるAI原則を組み合わせることで、Shaktiシリーズはスマートフォン、スマート家電、IoTシステムなどにおけるオンデバイスインテリジェンスを実現します。我々は、その設計哲学、トレーニングパイプライン、および一般タスク(例:MMLU、Hellaswag)や専門領域(医療、金融、法律)におけるベンチマーク性能について包括的な洞察を提供します。我々の研究結果は、注意深く設計されファインチューニングされたコンパクトモデルが、現実世界のエッジAIシナリオにおいて期待を上回ることがしばしばあることを示しています。
English
Deploying large scale language models on edge devices faces inherent challenges such as high computational demands, energy consumption, and potential data privacy risks. This paper introduces the Shakti Small Language Models (SLMs) Shakti-100M, Shakti-250M, and Shakti-500M which target these constraints headon. By combining efficient architectures, quantization techniques, and responsible AI principles, the Shakti series enables on-device intelligence for smartphones, smart appliances, IoT systems, and beyond. We provide comprehensive insights into their design philosophy, training pipelines, and benchmark performance on both general tasks (e.g., MMLU, Hellaswag) and specialized domains (healthcare, finance, and legal). Our findings illustrate that compact models, when carefully engineered and fine-tuned, can meet and often exceed expectations in real-world edge-AI scenarios.

Summary

AI-Generated Summary

PDF123March 6, 2025