Как вы это знаете? Обучение генеративных языковых моделей ссылаться на ответы на биомедицинские вопросы.
How do you know that? Teaching Generative Language Models to Reference Answers to Biomedical Questions
July 6, 2024
Авторы: Bojana Bašaragin, Adela Ljajić, Darija Medvecki, Lorenzo Cassano, Miloš Košprdić, Nikola Milošević
cs.AI
Аннотация
Большие языковые модели (LLM) недавно стали ведущим источником ответов на вопросы пользователей в Интернете. Несмотря на их способность предлагать грамотные ответы, их точность и надежность могут представлять существенные трудности. Это особенно верно для чувствительных областей, таких как биомедицина, где есть повышенная потребность в фактически верных ответах. В данной статье представлена система биомедицинского поиска с улучшенной генерацией (RAG), разработанная для повышения надежности сгенерированных ответов. Система основана на тонкой настройке LLM для вопросно-ответного поиска, где извлеченные соответствующие аннотации из PubMed передаются в контекст LLM в качестве входных данных через подсказку. Ее вывод представляет собой ответ на основе аннотаций PubMed, где каждое утверждение снабжено ссылкой, позволяя пользователям проверить ответ. Наша система поиска достигает абсолютного улучшения на 23% по сравнению с поисковым движком PubMed. На основе ручной оценки на небольшой выборке наш компонент тонкой настройки LLM достигает сравнимых результатов с GPT-4 Turbo в ссылке на соответствующие аннотации. Мы делаем набор данных, использованный для тонкой настройки моделей, и тонко настроенные модели на основе Mistral-7B-instruct-v0.1 и v0.2 общедоступными.
English
Large language models (LLMs) have recently become the leading source of
answers for users' questions online. Despite their ability to offer eloquent
answers, their accuracy and reliability can pose a significant challenge. This
is especially true for sensitive domains such as biomedicine, where there is a
higher need for factually correct answers. This paper introduces a biomedical
retrieval-augmented generation (RAG) system designed to enhance the reliability
of generated responses. The system is based on a fine-tuned LLM for the
referenced question-answering, where retrieved relevant abstracts from PubMed
are passed to LLM's context as input through a prompt. Its output is an answer
based on PubMed abstracts, where each statement is referenced accordingly,
allowing the users to verify the answer. Our retrieval system achieves an
absolute improvement of 23% compared to the PubMed search engine. Based on the
manual evaluation on a small sample, our fine-tuned LLM component achieves
comparable results to GPT-4 Turbo in referencing relevant abstracts. We make
the dataset used to fine-tune the models and the fine-tuned models based on
Mistral-7B-instruct-v0.1 and v0.2 publicly available.Summary
AI-Generated Summary