Kritische Analyse: Konforme Vorhersagen bei begrenzten Daten
Maschinelles Lernen revolutioniert die Medizin, doch sichere klinische Entscheidungen erfordern zuverlässige Unsicherheitsabschätzungen – etwas, das Standard-ML‑Modelle oft nicht liefern. Konforme Vorhersage (CP) bietet hier einen Weg: Durch die Kombination von Modellvorhersagen mit einer Kalibrierungsprobe werden Vorhersagesätze erzeugt, die mit einer gewünschten Wahrscheinlichkeit das wahre Label enthalten.
Ein häufig genanntes Argument ist, dass CP‑Theorie für Kalibrierungssets beliebiger Größe gilt. Das würde bedeuten, dass selbst bei sehr kleinen Kalibrierungsdaten sinnvolle statistische Garantien erzielt werden könnten. Die Autoren hinterfragen diese Annahme: Zwar bleiben die mathematischen Garantien bestehen, jedoch hängt ihre praktische Nützlichkeit stark von der Größe des Kalibrierungssets ab.
In medizinischen Anwendungsfällen, wo Daten oft knapp sind und große Kalibrierungssets kaum erreichbar sind, ist diese Einschränkung besonders relevant. Die Studie untermauert die Kritik mit einer empirischen Demonstration auf einer Bildklassifikationsaufgabe im Gesundheitswesen.
Die Ergebnisse zeigen, dass die alleinige Verlass auf die theoretischen CP‑Garantien in realen medizinischen Szenarien irreführend sein kann. Sie rufen zu einer sorgfältigeren Betrachtung von Kalibrierungsstrategien und weiterführender Forschung auf, um robuste Unsicherheitsabschätzungen zu gewährleisten.