AyurParam: un modello linguistico bilingue all'avanguardia per l'Ayurveda
AyurParam: A State-of-the-Art Bilingual Language Model for Ayurveda
November 4, 2025
Autori: Mohd Nauman, Sravan Gvm, Vijay Devane, Shyam Pawar, Viraj Thakur, Kundeshwar Pundalik, Piyush Sawarkar, Rohit Saluja, Maunendra Desarkar, Ganesh Ramakrishnan
cs.AI
Abstract
Gli attuali modelli linguistici di grandi dimensioni eccellono in compiti ampi e generalisti, ma forniscono costantemente prestazioni inferiori quando esposti a domini altamente specializzati che richiedono una profonda competenza culturale, linguistica e tematica. In particolare, i sistemi medici tradizionali come l'Ayurveda incarnano secoli di conoscenze testuali e cliniche sfumate che i modelli linguistici mainstream non riescono a interpretare o applicare con accuratezza. Presentiamo AyurParam-2.9B, un modello linguistico bilingue specializzato nel dominio, messo a punto a partire da Param-1-2.9B utilizzando un esteso dataset Ayurvedico curato da esperti, che abbraccia testi classici e linee guida cliniche. Il dataset di AyurParam incorpora domande e risposte di tipo contestuale, deduttivo e a scelta multipla in inglese e hindi, con protocolli di annotazione rigorosi per la precisione fattuale e la chiarezza espositiva. Valutato su BhashaBench-Ayur, AyurParam non solo supera tutti i modelli open-source addestrati per seguire istruzioni della sua classe dimensionale (1,5-3 miliardi di parametri), ma dimostra anche prestazioni competitive o superiori rispetto a modelli molto più grandi. I risultati di AyurParam evidenziano la necessità di un'autentica adattazione al dominio e di una supervisione di alta qualità per fornire un'intelligenza artificiale affidabile e culturalmente congrua per la conoscenza medica specialistica.
English
Current large language models excel at broad, general-purpose tasks, but
consistently underperform when exposed to highly specialized domains that
require deep cultural, linguistic, and subject-matter expertise. In particular,
traditional medical systems such as Ayurveda embody centuries of nuanced
textual and clinical knowledge that mainstream LLMs fail to accurately
interpret or apply. We introduce AyurParam-2.9B, a domain-specialized,
bilingual language model fine-tuned from Param-1-2.9B using an extensive,
expertly curated Ayurveda dataset spanning classical texts and clinical
guidance. AyurParam's dataset incorporates context-aware, reasoning, and
objective-style Q&A in both English and Hindi, with rigorous annotation
protocols for factual precision and instructional clarity. Benchmarked on
BhashaBench-Ayur, AyurParam not only surpasses all open-source
instruction-tuned models in its size class (1.5--3B parameters), but also
demonstrates competitive or superior performance compared to much larger
models. The results from AyurParam highlight the necessity for authentic domain
adaptation and high-quality supervision in delivering reliable, culturally
congruent AI for specialized medical knowledge.