RaTEScore: Метрика для генерации радиологических отчетов
RaTEScore: A Metric for Radiology Report Generation
June 24, 2024
Авторы: Weike Zhao, Chaoyi Wu, Xiaoman Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI
Аннотация
В данной статье представлен новый метрический подход, основанный на сущностях, названный Радиологическая Оценка Текста (RaTEScore), для оценки качества медицинских отчетов, созданных моделями искусственного интеллекта. RaTEScore акцентирует внимание на важных медицинских сущностях, таких как диагностические результаты и анатомические детали, и устойчив к сложным медицинским синонимам, а также чувствителен к выражениям отрицания. Технически мы разработали обширный набор данных для именованных сущностей в медицине, RaTE-NER, и обучили модель NER специально для этой цели. Эта модель позволяет декомпозировать сложные радиологические отчеты на составные медицинские сущности. Сама метрика вычисляется путем сравнения сходства встраивания сущностей, полученных из языковой модели, на основе их типов и значимости для клинической практики. Наши оценки показывают, что RaTEScore ближе соответствует предпочтениям людей, чем существующие метрики, что подтверждается как на установленных общедоступных бенчмарках, так и на нашем новом предложенном бенчмарке RaTE-Eval.
English
This paper introduces a novel, entity-aware metric, termed as Radiological
Report (Text) Evaluation (RaTEScore), to assess the quality of medical reports
generated by AI models. RaTEScore emphasizes crucial medical entities such as
diagnostic outcomes and anatomical details, and is robust against complex
medical synonyms and sensitive to negation expressions. Technically, we
developed a comprehensive medical NER dataset, RaTE-NER, and trained an NER
model specifically for this purpose. This model enables the decomposition of
complex radiological reports into constituent medical entities. The metric
itself is derived by comparing the similarity of entity embeddings, obtained
from a language model, based on their types and relevance to clinical
significance. Our evaluations demonstrate that RaTEScore aligns more closely
with human preference than existing metrics, validated both on established
public benchmarks and our newly proposed RaTE-Eval benchmark.Summary
AI-Generated Summary