ChatPaper.aiChatPaper

Dr. LLaMA: Miglioramento dei Modelli Linguistici di Piccole Dimensioni nel QA Specifico di Dominio tramite Aumento Generativo dei Dati

Dr. LLaMA: Improving Small Language Models in Domain-Specific QA via Generative Data Augmentation

May 12, 2023
Autori: Zhen Guo, Peiqi Wang, Yanwei Wang, Shangdi Yu
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) hanno compiuto progressi significativi nell'elaborazione del linguaggio naturale, ma affrontano sfide legate ai costi computazionali e all'inefficienza man mano che aumentano di dimensioni, specialmente in compiti specifici per dominio. I modelli linguistici di piccole dimensioni (SLM), d'altra parte, spesso faticano in questi compiti a causa di una capacità limitata e di dati di addestramento insufficienti. In questo articolo, introduciamo Dr. LLaMA, un metodo per migliorare gli SLM attraverso l'aumento dei dati generativi utilizzando gli LLM, concentrandoci su compiti di risposta a domande in ambito medico e sul dataset PubMedQA. I nostri risultati indicano che gli LLM affinano e diversificano efficacemente le coppie domanda-risposta esistenti, portando a un miglioramento delle prestazioni di un modello molto più piccolo su dataset di domande e risposte specifici per dominio dopo il fine-tuning. Questo studio evidenzia le sfide legate all'uso degli LLM per la risposta a domande specifiche per dominio e suggerisce potenziali direzioni di ricerca per affrontare queste limitazioni, con l'obiettivo finale di creare modelli più efficienti e capaci per applicazioni specializzate. Abbiamo anche reso disponibile il nostro codice per i ricercatori interessati.
English
Large Language Models (LLMs) have made significant strides in natural language processing but face challenges in terms of computational expense and inefficiency as they grow in size, especially in domain-specific tasks. Small Language Models (SLMs), on the other hand, often struggle in these tasks due to limited capacity and training data. In this paper, we introduce Dr. LLaMA, a method for improving SLMs through generative data augmentation using LLMs, focusing on medical question-answering tasks and the PubMedQA dataset. Our findings indicate that LLMs effectively refine and diversify existing question-answer pairs, resulting in improved performance of a much smaller model on domain-specific QA datasets after fine-tuning. This study highlights the challenges of using LLMs for domain-specific question answering and suggests potential research directions to address these limitations, ultimately aiming to create more efficient and capable models for specialized applications. We have also made our code available for interested researchers
PDF21May 8, 2026