ChatPaper.aiChatPaper

RaTEScore: Метрика для генерации радиологических отчетов

RaTEScore: A Metric for Radiology Report Generation

June 24, 2024
Авторы: Weike Zhao, Chaoyi Wu, Xiaoman Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI

Аннотация

В данной статье представлен новый метрический подход, основанный на сущностях, названный Радиологическая Оценка Текста (RaTEScore), для оценки качества медицинских отчетов, созданных моделями искусственного интеллекта. RaTEScore акцентирует внимание на важных медицинских сущностях, таких как диагностические результаты и анатомические детали, и устойчив к сложным медицинским синонимам, а также чувствителен к выражениям отрицания. Технически мы разработали обширный набор данных для именованных сущностей в медицине, RaTE-NER, и обучили модель NER специально для этой цели. Эта модель позволяет декомпозировать сложные радиологические отчеты на составные медицинские сущности. Сама метрика вычисляется путем сравнения сходства встраивания сущностей, полученных из языковой модели, на основе их типов и значимости для клинической практики. Наши оценки показывают, что RaTEScore ближе соответствует предпочтениям людей, чем существующие метрики, что подтверждается как на установленных общедоступных бенчмарках, так и на нашем новом предложенном бенчмарке RaTE-Eval.
English
This paper introduces a novel, entity-aware metric, termed as Radiological Report (Text) Evaluation (RaTEScore), to assess the quality of medical reports generated by AI models. RaTEScore emphasizes crucial medical entities such as diagnostic outcomes and anatomical details, and is robust against complex medical synonyms and sensitive to negation expressions. Technically, we developed a comprehensive medical NER dataset, RaTE-NER, and trained an NER model specifically for this purpose. This model enables the decomposition of complex radiological reports into constituent medical entities. The metric itself is derived by comparing the similarity of entity embeddings, obtained from a language model, based on their types and relevance to clinical significance. Our evaluations demonstrate that RaTEScore aligns more closely with human preference than existing metrics, validated both on established public benchmarks and our newly proposed RaTE-Eval benchmark.

Summary

AI-Generated Summary

PDF51November 29, 2024