AyurParam: современная двуязычная языковая модель для Аюрведы
AyurParam: A State-of-the-Art Bilingual Language Model for Ayurveda
November 4, 2025
Авторы: Mohd Nauman, Sravan Gvm, Vijay Devane, Shyam Pawar, Viraj Thakur, Kundeshwar Pundalik, Piyush Sawarkar, Rohit Saluja, Maunendra Desarkar, Ganesh Ramakrishnan
cs.AI
Аннотация
Современные крупные языковые модели преуспевают в решении широких задач общего характера, но последовательно демонстрируют низкую производительность при работе в узкоспециализированных областях, требующих глубоких культурных, лингвистических и предметных знаний. В частности, традиционные медицинские системы, такие как Аюрведа, воплощают в себе столетия тонких текстовых и клинических знаний, которые основные LLM не способны точно интерпретировать или применять. Мы представляем AyurParam-2.9B — специализированную двуязычную языковую модель, дообученную на основе Param-1-2.9B с использованием обширного, тщательно отобранного экспертами набора данных по Аюрведе, включающего классические тексты и клинические рекомендации. Набор данных AyurParam включает контекстно-зависимые вопросы на понимание и рассуждение, а также задания в формате объективных тестов на английском и хинди, с применением строгих протоколов аннотирования для обеспечения фактической точности и ясности инструкций. По результатам тестирования на BhashaBench-Ayur, AyurParam не только превосходит все открытые инструктивно-обученные модели своего класса размера (1.5–3 млрд параметров), но и демонстрирует сопоставимую или более высокую производительность по сравнению с гораздо более крупными моделями. Результаты, полученные с помощью AyurParam, подчеркивают необходимость аутентичной адаптации к предметной области и высококачественного контроля для создания надежного ИИ, культурно согласованного со специализированными медицинскими знаниями.
English
Current large language models excel at broad, general-purpose tasks, but
consistently underperform when exposed to highly specialized domains that
require deep cultural, linguistic, and subject-matter expertise. In particular,
traditional medical systems such as Ayurveda embody centuries of nuanced
textual and clinical knowledge that mainstream LLMs fail to accurately
interpret or apply. We introduce AyurParam-2.9B, a domain-specialized,
bilingual language model fine-tuned from Param-1-2.9B using an extensive,
expertly curated Ayurveda dataset spanning classical texts and clinical
guidance. AyurParam's dataset incorporates context-aware, reasoning, and
objective-style Q&A in both English and Hindi, with rigorous annotation
protocols for factual precision and instructional clarity. Benchmarked on
BhashaBench-Ayur, AyurParam not only surpasses all open-source
instruction-tuned models in its size class (1.5--3B parameters), but also
demonstrates competitive or superior performance compared to much larger
models. The results from AyurParam highlight the necessity for authentic domain
adaptation and high-quality supervision in delivering reliable, culturally
congruent AI for specialized medical knowledge.