Neues multimodales Datenset und KI-Modell revolutionieren Ameloblastom‑Diagnose

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der maxillofazialen Pathologie ist die Entwicklung von KI‑gestützten Diagnostiksystemen stark von strukturierten, multimodalen Datensätzen abhängig. Bisher verfügten die vorhandenen Ressourcen nur über begrenzte Abdeckung von Ameloblastomen und fehlten die einheitlichen Formate, die für eine direkte Modell‑Trainierung erforderlich sind.

Forscher haben deshalb ein speziell kuratiertes multimodales Datenset erstellt, das radiologische, histopathologische und intraorale klinische Bilder mit strukturierten Daten aus Fallberichten kombiniert. Durch den Einsatz von Natural‑Language‑Processing wurden klinisch relevante Merkmale aus den Textberichten extrahiert, während die Bilddaten einer domänenspezifischen Vorverarbeitung und Augmentation unterzogen wurden.

Auf Basis dieses Datensatzes wurde ein multimodales Deep‑Learning‑Modell entwickelt, das Ameloblastom‑Varianten klassifiziert, Verhaltensmuster wie das Rezidivrisiko bewertet und die chirurgische Planung unterstützt. Das Modell kann im Einsatz klinische Eingaben wie das Symptom, Alter und Geschlecht berücksichtigen, um personalisierte Vorhersagen zu liefern.

Die quantitative Evaluation zeigte deutliche Verbesserungen: Die Genauigkeit der Variantenklassifikation stieg von 46,2 % auf 65,9 %, und der F1‑Score für die Erkennung abnormaler Gewebe verbesserte sich von 43,0 % auf 90,3 %. Im Vergleich zu bestehenden Ressourcen wie MultiCaRe bietet diese Arbeit einen robusten Datensatz und ein anpassungsfähiges KI‑Framework, das die patientenspezifische Entscheidungsunterstützung nachhaltig voranbringt.

Ähnliche Artikel