KI‑gestützte ICD‑Codierung: Neue Methoden für nachvollziehbare Erklärungen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die automatische Zuordnung von unstrukturierten Texten aus elektronischen Patientenakten zu den internationalen Klassifikationssystemen (ICD) hat dank moderner Deep‑Learning‑Modelle enorme Fortschritte gemacht. Dennoch bleibt die mangelnde Erklärbarkeit dieser Systeme ein zentrales Hindernis für Vertrauen und Transparenz im klinischen Alltag.

In einer aktuellen Studie wurde die Erklärbarkeit von ICD‑Codierungsrationalen systematisch untersucht. Dabei wurden zwei zentrale Kriterien bewertet: die „Faithfulness“, also inwieweit die Erklärungen die tatsächliche Entscheidungslogik des Modells widerspiegeln, und die „Plausibility“, die Konsistenz der Erklärungen mit dem Urteil von Fachärzten. Für diese Bewertung wurde ein neues, stark annotiertes Rationale‑Datenset erstellt, das dichter und granulierter ist als bisherige Ressourcen und besser den realen klinischen Anforderungen entspricht.

Die Ergebnisse zeigen, dass von großen Sprachmodellen (LLMs) generierte Erklärungen eine vielversprechende Plausibilität aufweisen. Aufbauend auf diesen Erkenntnissen wurden neue Lernmethoden entwickelt, die LLM‑Rationale gezielt trainieren, um die Qualität der generierten Erklärungen weiter zu steigern. Diese Ansätze ermöglichen es, nicht nur präzise ICD‑Codes zu erzeugen, sondern auch nachvollziehbare Begründungen zu liefern, die von medizinischem Fachpersonal verstanden und überprüft werden können.

Die Kombination aus einer robusten Evaluationsbasis, einem hochwertigen Datensatz und innovativen Lernstrategien markiert einen wichtigen Schritt hin zu erklärbarer KI in der klinischen Codierung. Sie stärkt das Vertrauen der Anwender, erhöht die Transparenz der Entscheidungsprozesse und unterstützt die Integration von KI‑Systemen in die tägliche medizinische Praxis.

Ähnliche Artikel