Wie wissen Sie das? Lehren von generativen Sprachmodellen, um auf biomedizinische Fragen zu verweisen.
How do you know that? Teaching Generative Language Models to Reference Answers to Biomedical Questions
July 6, 2024
Autoren: Bojana Bašaragin, Adela Ljajić, Darija Medvecki, Lorenzo Cassano, Miloš Košprdić, Nikola Milošević
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) sind in letzter Zeit zur führenden Quelle von Antworten auf Benutzerfragen online geworden. Trotz ihrer Fähigkeit, eloquente Antworten zu bieten, können ihre Genauigkeit und Zuverlässigkeit eine bedeutende Herausforderung darstellen. Dies trifft insbesondere auf sensible Bereiche wie die Biomedizin zu, wo ein höherer Bedarf an faktisch korrekten Antworten besteht. Dieser Artikel stellt ein biomedizinisches Abruf-erweitertes Generierungs (RAG)-System vor, das darauf abzielt, die Zuverlässigkeit der generierten Antworten zu verbessern. Das System basiert auf einem feinabgestimmten LLM für die referenzierte Fragebeantwortung, bei der relevante Abstracts aus PubMed abgerufen und dem Kontext des LLM als Eingabe über einen Hinweis übergeben werden. Die Ausgabe ist eine Antwort, die auf PubMed-Abstracts basiert, wobei jede Aussage entsprechend referenziert ist, um den Benutzern die Überprüfung der Antwort zu ermöglichen. Unser Abrufsystem erzielt eine absolute Verbesserung von 23% im Vergleich zur PubMed-Suchmaschine. Basierend auf der manuellen Bewertung einer kleinen Stichprobe erzielt unser feinabgestimmter LLM-Komponente vergleichbare Ergebnisse wie GPT-4 Turbo bei der Referenzierung relevanter Abstracts. Wir stellen den Datensatz, der zur Feinabstimmung der Modelle verwendet wurde, sowie die auf Mistral-7B-instruct-v0.1 und v0.2 basierenden feinabgestimmten Modelle öffentlich zur Verfügung.
English
Large language models (LLMs) have recently become the leading source of
answers for users' questions online. Despite their ability to offer eloquent
answers, their accuracy and reliability can pose a significant challenge. This
is especially true for sensitive domains such as biomedicine, where there is a
higher need for factually correct answers. This paper introduces a biomedical
retrieval-augmented generation (RAG) system designed to enhance the reliability
of generated responses. The system is based on a fine-tuned LLM for the
referenced question-answering, where retrieved relevant abstracts from PubMed
are passed to LLM's context as input through a prompt. Its output is an answer
based on PubMed abstracts, where each statement is referenced accordingly,
allowing the users to verify the answer. Our retrieval system achieves an
absolute improvement of 23% compared to the PubMed search engine. Based on the
manual evaluation on a small sample, our fine-tuned LLM component achieves
comparable results to GPT-4 Turbo in referencing relevant abstracts. We make
the dataset used to fine-tune the models and the fine-tuned models based on
Mistral-7B-instruct-v0.1 and v0.2 publicly available.Summary
AI-Generated Summary