ChatPaper.aiChatPaper

Come fai a saperlo? Insegnare ai Modelli Linguistici Generativi a Fare Riferimento alle Risposte alle Domande Biomediche

How do you know that? Teaching Generative Language Models to Reference Answers to Biomedical Questions

July 6, 2024
Autori: Bojana Bašaragin, Adela Ljajić, Darija Medvecki, Lorenzo Cassano, Miloš Košprdić, Nikola Milošević
cs.AI

Abstract

I grandi modelli linguistici (LLM) sono recentemente diventati la principale fonte di risposte alle domande degli utenti online. Nonostante la loro capacità di fornire risposte eloquenti, la loro accuratezza e affidabilità possono rappresentare una sfida significativa. Questo è particolarmente vero per domini sensibili come la biomedicina, dove c'è un maggiore bisogno di risposte fattualmente corrette. Questo articolo introduce un sistema di generazione aumentata da recupero (RAG) biomedico progettato per migliorare l'affidabilità delle risposte generate. Il sistema si basa su un LLM ottimizzato per il question-answering con riferimenti, in cui gli abstract rilevanti recuperati da PubMed vengono passati al contesto dell'LLM come input attraverso un prompt. L'output è una risposta basata sugli abstract di PubMed, in cui ogni affermazione è referenziata di conseguenza, consentendo agli utenti di verificare la risposta. Il nostro sistema di recupero ottiene un miglioramento assoluto del 23% rispetto al motore di ricerca di PubMed. Sulla base di una valutazione manuale su un piccolo campione, il nostro componente LLM ottimizzato raggiunge risultati comparabili a GPT-4 Turbo nel referenziare gli abstract rilevanti. Rendiamo pubblicamente disponibili il dataset utilizzato per ottimizzare i modelli e i modelli ottimizzati basati su Mistral-7B-instruct-v0.1 e v0.2.
English
Large language models (LLMs) have recently become the leading source of answers for users' questions online. Despite their ability to offer eloquent answers, their accuracy and reliability can pose a significant challenge. This is especially true for sensitive domains such as biomedicine, where there is a higher need for factually correct answers. This paper introduces a biomedical retrieval-augmented generation (RAG) system designed to enhance the reliability of generated responses. The system is based on a fine-tuned LLM for the referenced question-answering, where retrieved relevant abstracts from PubMed are passed to LLM's context as input through a prompt. Its output is an answer based on PubMed abstracts, where each statement is referenced accordingly, allowing the users to verify the answer. Our retrieval system achieves an absolute improvement of 23% compared to the PubMed search engine. Based on the manual evaluation on a small sample, our fine-tuned LLM component achieves comparable results to GPT-4 Turbo in referencing relevant abstracts. We make the dataset used to fine-tune the models and the fine-tuned models based on Mistral-7B-instruct-v0.1 and v0.2 publicly available.
PDF41November 28, 2024