ChatPaper.aiChatPaper

RaTEScore: Una Métrica para la Generación de Informes Radiológicos

RaTEScore: A Metric for Radiology Report Generation

June 24, 2024
Autores: Weike Zhao, Chaoyi Wu, Xiaoman Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI

Resumen

Este artículo presenta una métrica novedosa y consciente de entidades, denominada Evaluación de Informes Radiológicos (Texto) (RaTEScore), para evaluar la calidad de los informes médicos generados por modelos de IA. RaTEScore enfatiza entidades médicas cruciales como resultados diagnósticos y detalles anatómicos, y es robusta frente a sinónimos médicos complejos y sensible a expresiones de negación. Técnicamente, desarrollamos un conjunto de datos exhaustivo de Reconocimiento de Entidades Médicas (NER), RaTE-NER, y entrenamos un modelo NER específicamente para este propósito. Este modelo permite descomponer informes radiológicos complejos en sus entidades médicas constituyentes. La métrica en sí se deriva al comparar la similitud de los embeddings de entidades, obtenidos de un modelo de lenguaje, basados en sus tipos y relevancia para la significación clínica. Nuestras evaluaciones demuestran que RaTEScore se alinea más estrechamente con la preferencia humana que las métricas existentes, validado tanto en puntos de referencia públicos establecidos como en nuestro nuevo punto de referencia propuesto, RaTE-Eval.
English
This paper introduces a novel, entity-aware metric, termed as Radiological Report (Text) Evaluation (RaTEScore), to assess the quality of medical reports generated by AI models. RaTEScore emphasizes crucial medical entities such as diagnostic outcomes and anatomical details, and is robust against complex medical synonyms and sensitive to negation expressions. Technically, we developed a comprehensive medical NER dataset, RaTE-NER, and trained an NER model specifically for this purpose. This model enables the decomposition of complex radiological reports into constituent medical entities. The metric itself is derived by comparing the similarity of entity embeddings, obtained from a language model, based on their types and relevance to clinical significance. Our evaluations demonstrate that RaTEScore aligns more closely with human preference than existing metrics, validated both on established public benchmarks and our newly proposed RaTE-Eval benchmark.

Summary

AI-Generated Summary

PDF51November 29, 2024