RaTEScore: Una Metrica per la Generazione di Referti Radiologici
RaTEScore: A Metric for Radiology Report Generation
June 24, 2024
Autori: Weike Zhao, Chaoyi Wu, Xiaoman Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI
Abstract
Questo articolo introduce una nuova metrica consapevole delle entità, denominata Radiological Report (Text) Evaluation (RaTEScore), per valutare la qualità dei referti medici generati da modelli di intelligenza artificiale. RaTEScore enfatizza entità mediche cruciali come esiti diagnostici e dettagli anatomici, ed è robusta contro sinonimi medici complessi e sensibile alle espressioni di negazione. Tecnicamente, abbiamo sviluppato un dataset completo per il riconoscimento di entità mediche (NER), denominato RaTE-NER, e addestrato un modello NER specificamente per questo scopo. Questo modello consente la scomposizione di referti radiologici complessi nelle loro entità mediche costituenti. La metrica stessa è derivata confrontando la similarità degli embedding delle entità, ottenuti da un modello linguistico, in base ai loro tipi e alla rilevanza clinica. Le nostre valutazioni dimostrano che RaTEScore si allinea più strettamente alle preferenze umane rispetto alle metriche esistenti, validato sia su benchmark pubblici consolidati che sul nostro nuovo benchmark proposto, RaTE-Eval.
English
This paper introduces a novel, entity-aware metric, termed as Radiological
Report (Text) Evaluation (RaTEScore), to assess the quality of medical reports
generated by AI models. RaTEScore emphasizes crucial medical entities such as
diagnostic outcomes and anatomical details, and is robust against complex
medical synonyms and sensitive to negation expressions. Technically, we
developed a comprehensive medical NER dataset, RaTE-NER, and trained an NER
model specifically for this purpose. This model enables the decomposition of
complex radiological reports into constituent medical entities. The metric
itself is derived by comparing the similarity of entity embeddings, obtained
from a language model, based on their types and relevance to clinical
significance. Our evaluations demonstrate that RaTEScore aligns more closely
with human preference than existing metrics, validated both on established
public benchmarks and our newly proposed RaTE-Eval benchmark.