Erklärbare KI: Kombiniertes XAI-Framework für Gehirntumor-Erkennung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Studie wird gezeigt, wie die Kombination mehrerer erklärbarer KI‑Techniken die Transparenz von Deep‑Learning‑Modellen für die Erkennung von Gehirntumoren deutlich verbessert. Das Team entwickelte ein maßgeschneidertes Convolutional Neural Network, das auf dem BraTS 2021‑Datensatz trainiert wurde und eine beeindruckende Genauigkeit von 91,24 % erreichte.

Die Forschung integriert Gradient‑Weighted Class Activation Mapping (GRAD‑CAM), Layer‑wise Relevance Propagation (LRP) und SHapley Additive exPlanations (SHAP). Durch diese Kombination erhält man sowohl breite Regionen von Interesse als auch pixel‑genaue Relevanzwerte. GRAD‑CAM hebt wichtige räumliche Bereiche hervor, LRP liefert detaillierte Pixel‑Relevanz und SHAP quantifiziert die Beitrag einzelner Merkmale.

Der Ansatz identifiziert zuverlässig sowohl vollständige als auch teilweise Tumore und liefert dadurch mehrschichtige Erklärungen, die von allgemeinen Bildregionen bis zu feinkörnigen Details reichen. Im Vergleich zu einzelnen XAI‑Methoden zeigt die integrierte Lösung eine überlegene Erklärungsfähigkeit, insbesondere bei Fällen mit teilweise sichtbaren Tumoren.

Durch die erhöhte Transparenz stärkt die Studie das Vertrauen in KI‑gestützte medizinische Bildanalysen. Sie demonstriert, wie ein umfassendes XAI‑Framework die Zuverlässigkeit und Interpretierbarkeit von KI‑Systemen im Gesundheitswesen, insbesondere bei kritischen Aufgaben wie der Gehirntumor‑Erkennung, nachhaltig verbessern kann.

Ähnliche Artikel