ChatPaper.aiChatPaper

RaTEScore: Una Metrica per la Generazione di Referti Radiologici

RaTEScore: A Metric for Radiology Report Generation

June 24, 2024
Autori: Weike Zhao, Chaoyi Wu, Xiaoman Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI

Abstract

Questo articolo introduce una nuova metrica consapevole delle entità, denominata Radiological Report (Text) Evaluation (RaTEScore), per valutare la qualità dei referti medici generati da modelli di intelligenza artificiale. RaTEScore enfatizza entità mediche cruciali come esiti diagnostici e dettagli anatomici, ed è robusta contro sinonimi medici complessi e sensibile alle espressioni di negazione. Tecnicamente, abbiamo sviluppato un dataset completo per il riconoscimento di entità mediche (NER), denominato RaTE-NER, e addestrato un modello NER specificamente per questo scopo. Questo modello consente la scomposizione di referti radiologici complessi nelle loro entità mediche costituenti. La metrica stessa è derivata confrontando la similarità degli embedding delle entità, ottenuti da un modello linguistico, in base ai loro tipi e alla rilevanza clinica. Le nostre valutazioni dimostrano che RaTEScore si allinea più strettamente alle preferenze umane rispetto alle metriche esistenti, validato sia su benchmark pubblici consolidati che sul nostro nuovo benchmark proposto, RaTE-Eval.
English
This paper introduces a novel, entity-aware metric, termed as Radiological Report (Text) Evaluation (RaTEScore), to assess the quality of medical reports generated by AI models. RaTEScore emphasizes crucial medical entities such as diagnostic outcomes and anatomical details, and is robust against complex medical synonyms and sensitive to negation expressions. Technically, we developed a comprehensive medical NER dataset, RaTE-NER, and trained an NER model specifically for this purpose. This model enables the decomposition of complex radiological reports into constituent medical entities. The metric itself is derived by comparing the similarity of entity embeddings, obtained from a language model, based on their types and relevance to clinical significance. Our evaluations demonstrate that RaTEScore aligns more closely with human preference than existing metrics, validated both on established public benchmarks and our newly proposed RaTE-Eval benchmark.
PDF51November 29, 2024