ChatPaper.aiChatPaper

Benannter klinischer Entitätserkennungs-Benchmark

Named Clinical Entity Recognition Benchmark

October 7, 2024
Autoren: Wadood M Abdul, Marco AF Pimentel, Muhammad Umar Salman, Tathagata Raha, Clément Christophe, Praveen K Kanithi, Nasir Hayat, Ronnie Rajan, Shadab Khan
cs.AI

Zusammenfassung

Dieser technische Bericht stellt einen Benchmark für die Erkennung benannter klinischer Entitäten vor, um Sprachmodelle im Gesundheitswesen zu bewerten. Dabei wird die entscheidende Aufgabe der natürlichen Sprachverarbeitung (NLP) behandelt, strukturierte Informationen aus klinischen Erzählungen zu extrahieren, um Anwendungen wie automatisierte Kodierung, Identifizierung von klinischen Studiengruppen und klinische Entscheidungsunterstützung zu unterstützen. Die Rangliste bietet eine standardisierte Plattform zur Bewertung verschiedener Sprachmodelle, einschließlich Encoder- und Decoder-Architekturen, hinsichtlich ihrer Fähigkeit, klinische Entitäten in verschiedenen medizinischen Bereichen zu identifizieren und zu klassifizieren. Es wird eine sorgfältig zusammengestellte Sammlung von frei verfügbaren klinischen Datensätzen verwendet, die Entitäten wie Krankheiten, Symptome, Medikamente, Verfahren und Laboruntersuchungen umfassen. Diese Entitäten sind gemäß dem Common Data Model der Observational Medical Outcomes Partnership (OMOP) standardisiert, um Konsistenz und Interoperabilität zwischen verschiedenen Gesundheitssystemen und Datensätzen sowie eine umfassende Bewertung der Modellleistung sicherzustellen. Die Leistung der Modelle wird hauptsächlich anhand des F1-Scores bewertet und durch verschiedene Bewertungsmodi ergänzt, um umfassende Einblicke in die Modellleistung zu bieten. Der Bericht enthält auch eine kurze Analyse der bisher bewerteten Modelle, die beobachtete Trends und Einschränkungen hervorhebt. Durch die Einführung dieses Benchmarking-Rahmens zielt die Rangliste darauf ab, Transparenz zu fördern, vergleichende Analysen zu erleichtern und Innovationen in den Aufgaben der klinischen Entitätenerkennung voranzutreiben, um den Bedarf an robusten Bewertungsmethoden in der NLP im Gesundheitswesen zu decken.
English
This technical report introduces a Named Clinical Entity Recognition Benchmark for evaluating language models in healthcare, addressing the crucial natural language processing (NLP) task of extracting structured information from clinical narratives to support applications like automated coding, clinical trial cohort identification, and clinical decision support. The leaderboard provides a standardized platform for assessing diverse language models, including encoder and decoder architectures, on their ability to identify and classify clinical entities across multiple medical domains. A curated collection of openly available clinical datasets is utilized, encompassing entities such as diseases, symptoms, medications, procedures, and laboratory measurements. Importantly, these entities are standardized according to the Observational Medical Outcomes Partnership (OMOP) Common Data Model, ensuring consistency and interoperability across different healthcare systems and datasets, and a comprehensive evaluation of model performance. Performance of models is primarily assessed using the F1-score, and it is complemented by various assessment modes to provide comprehensive insights into model performance. The report also includes a brief analysis of models evaluated to date, highlighting observed trends and limitations. By establishing this benchmarking framework, the leaderboard aims to promote transparency, facilitate comparative analyses, and drive innovation in clinical entity recognition tasks, addressing the need for robust evaluation methods in healthcare NLP.

Summary

AI-Generated Summary

PDF173November 16, 2024