ChatPaper.aiChatPaper

AyurParam: современная двуязычная языковая модель для Аюрведы

AyurParam: A State-of-the-Art Bilingual Language Model for Ayurveda

November 4, 2025
Авторы: Mohd Nauman, Sravan Gvm, Vijay Devane, Shyam Pawar, Viraj Thakur, Kundeshwar Pundalik, Piyush Sawarkar, Rohit Saluja, Maunendra Desarkar, Ganesh Ramakrishnan
cs.AI

Аннотация

Современные крупные языковые модели преуспевают в решении широких задач общего характера, но последовательно демонстрируют низкую производительность при работе в узкоспециализированных областях, требующих глубоких культурных, лингвистических и предметных знаний. В частности, традиционные медицинские системы, такие как Аюрведа, воплощают в себе столетия тонких текстовых и клинических знаний, которые основные LLM не способны точно интерпретировать или применять. Мы представляем AyurParam-2.9B — специализированную двуязычную языковую модель, дообученную на основе Param-1-2.9B с использованием обширного, тщательно отобранного экспертами набора данных по Аюрведе, включающего классические тексты и клинические рекомендации. Набор данных AyurParam включает контекстно-зависимые вопросы на понимание и рассуждение, а также задания в формате объективных тестов на английском и хинди, с применением строгих протоколов аннотирования для обеспечения фактической точности и ясности инструкций. По результатам тестирования на BhashaBench-Ayur, AyurParam не только превосходит все открытые инструктивно-обученные модели своего класса размера (1.5–3 млрд параметров), но и демонстрирует сопоставимую или более высокую производительность по сравнению с гораздо более крупными моделями. Результаты, полученные с помощью AyurParam, подчеркивают необходимость аутентичной адаптации к предметной области и высококачественного контроля для создания надежного ИИ, культурно согласованного со специализированными медицинскими знаниями.
English
Current large language models excel at broad, general-purpose tasks, but consistently underperform when exposed to highly specialized domains that require deep cultural, linguistic, and subject-matter expertise. In particular, traditional medical systems such as Ayurveda embody centuries of nuanced textual and clinical knowledge that mainstream LLMs fail to accurately interpret or apply. We introduce AyurParam-2.9B, a domain-specialized, bilingual language model fine-tuned from Param-1-2.9B using an extensive, expertly curated Ayurveda dataset spanning classical texts and clinical guidance. AyurParam's dataset incorporates context-aware, reasoning, and objective-style Q&A in both English and Hindi, with rigorous annotation protocols for factual precision and instructional clarity. Benchmarked on BhashaBench-Ayur, AyurParam not only surpasses all open-source instruction-tuned models in its size class (1.5--3B parameters), but also demonstrates competitive or superior performance compared to much larger models. The results from AyurParam highlight the necessity for authentic domain adaptation and high-quality supervision in delivering reliable, culturally congruent AI for specialized medical knowledge.
PDF31December 2, 2025