ChatPaper.aiChatPaper

RaTEScore: Uma Métrica para Geração de Relatórios de Radiologia

RaTEScore: A Metric for Radiology Report Generation

June 24, 2024
Autores: Weike Zhao, Chaoyi Wu, Xiaoman Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI

Resumo

Este artigo apresenta uma métrica inovadora, consciente de entidades, denominada de Avaliação de Relatórios Radiológicos (Texto) (RaTEScore), para avaliar a qualidade de relatórios médicos gerados por modelos de IA. O RaTEScore enfatiza entidades médicas cruciais, como resultados diagnósticos e detalhes anatômicos, e é robusto contra sinônimos médicos complexos e sensível a expressões de negação. Tecnicamente, desenvolvemos um conjunto de dados abrangente de Reconhecimento de Entidades Médicas (NER), RaTE-NER, e treinamos um modelo NER especificamente para este fim. Esse modelo permite a decomposição de relatórios radiológicos complexos em entidades médicas constituintes. A métrica em si é derivada ao comparar a similaridade de incorporações de entidades, obtidas de um modelo de linguagem, com base em seus tipos e relevância para a importância clínica. Nossas avaliações demonstram que o RaTEScore se alinha mais estreitamente com a preferência humana do que as métricas existentes, validadas tanto em benchmarks públicos estabelecidos quanto em nosso novo benchmark proposto, RaTE-Eval.
English
This paper introduces a novel, entity-aware metric, termed as Radiological Report (Text) Evaluation (RaTEScore), to assess the quality of medical reports generated by AI models. RaTEScore emphasizes crucial medical entities such as diagnostic outcomes and anatomical details, and is robust against complex medical synonyms and sensitive to negation expressions. Technically, we developed a comprehensive medical NER dataset, RaTE-NER, and trained an NER model specifically for this purpose. This model enables the decomposition of complex radiological reports into constituent medical entities. The metric itself is derived by comparing the similarity of entity embeddings, obtained from a language model, based on their types and relevance to clinical significance. Our evaluations demonstrate that RaTEScore aligns more closely with human preference than existing metrics, validated both on established public benchmarks and our newly proposed RaTE-Eval benchmark.
PDF51November 29, 2024