Como você sabe disso? Ensinando Modelos de Linguagem Generativos a Referenciar Respostas a Perguntas Biomédicas
How do you know that? Teaching Generative Language Models to Reference Answers to Biomedical Questions
July 6, 2024
Autores: Bojana Bašaragin, Adela Ljajić, Darija Medvecki, Lorenzo Cassano, Miloš Košprdić, Nikola Milošević
cs.AI
Resumo
Os modelos de linguagem de grande escala (LLMs) tornaram-se recentemente a principal fonte de respostas para perguntas de usuários online. Apesar de sua capacidade de oferecer respostas eloquentes, sua precisão e confiabilidade podem representar um desafio significativo. Isso é especialmente verdadeiro para domínios sensíveis, como a biomedicina, onde há uma maior necessidade de respostas factualmente corretas. Este artigo apresenta um sistema de geração aumentada por recuperação biomédica (RAG) projetado para aprimorar a confiabilidade das respostas geradas. O sistema é baseado em um LLM ajustado para a referência de perguntas e respostas, onde resumos relevantes recuperados do PubMed são passados para o contexto do LLM como entrada por meio de um prompt. Sua saída é uma resposta baseada em resumos do PubMed, onde cada afirmação é referenciada adequadamente, permitindo que os usuários verifiquem a resposta. Nosso sistema de recuperação alcança uma melhoria absoluta de 23% em comparação com o mecanismo de busca do PubMed. Com base na avaliação manual em uma pequena amostra, nosso componente LLM ajustado alcança resultados comparáveis ao GPT-4 Turbo na referência de resumos relevantes. Disponibilizamos publicamente o conjunto de dados usado para ajustar os modelos e os modelos ajustados com base em Mistral-7B-instruct-v0.1 e v0.2.
English
Large language models (LLMs) have recently become the leading source of
answers for users' questions online. Despite their ability to offer eloquent
answers, their accuracy and reliability can pose a significant challenge. This
is especially true for sensitive domains such as biomedicine, where there is a
higher need for factually correct answers. This paper introduces a biomedical
retrieval-augmented generation (RAG) system designed to enhance the reliability
of generated responses. The system is based on a fine-tuned LLM for the
referenced question-answering, where retrieved relevant abstracts from PubMed
are passed to LLM's context as input through a prompt. Its output is an answer
based on PubMed abstracts, where each statement is referenced accordingly,
allowing the users to verify the answer. Our retrieval system achieves an
absolute improvement of 23% compared to the PubMed search engine. Based on the
manual evaluation on a small sample, our fine-tuned LLM component achieves
comparable results to GPT-4 Turbo in referencing relevant abstracts. We make
the dataset used to fine-tune the models and the fine-tuned models based on
Mistral-7B-instruct-v0.1 and v0.2 publicly available.