MEDLEY: Mehrere KI-Modelle nutzen Bias für bessere medizinische Diagnosen
In der medizinischen Künstlichen Intelligenz gilt Bias bislang als Mangel, den es zu beseitigen gilt. MEDLEY – das Medical Ensemble Diagnostic System with Leveraged diversitY – ändert diese Sichtweise grundlegend. Das Konzept nutzt die Tatsache, dass menschliches Denken von Bildung, Kultur und Erfahrung geprägt ist, und betrachtet Bias daher als unvermeidliche, aber potenziell wertvolle Ressource.
MEDLEY koordiniert mehrere KI‑Modelle und bewahrt deren unterschiedliche Ausgaben, anstatt sie zu einem einheitlichen Konsens zu reduzieren. Statt Uneinigkeit zu unterdrücken, werden modellbezogene Vorurteile als mögliche Stärken dokumentiert und sogar Halluzinationen als vorläufige Hypothesen für die Überprüfung durch den Arzt behandelt.
Ein Proof‑of‑Concept‑Demonstrator, der mehr als 30 große Sprachmodelle einsetzt, zeigt, dass sowohl Konsens‑ als auch Minderheitsansichten in synthetischen Fällen erhalten bleiben. Dadurch wird diagnostische Unsicherheit und latente Bias transparent für die klinische Aufsicht.
Obwohl MEDLEY noch nicht als klinisches Werkzeug validiert ist, demonstriert die Prototyp‑Lösung, wie strukturierte Vielfalt die medizinische Entscheidungsfindung unter ärztlicher Aufsicht verbessern kann. Durch die Umdeutung von KI‑Unvollkommenheit als Ressource eröffnet MEDLEY neue regulatorische, ethische und innovative Wege für vertrauenswürdige medizinische KI‑Systeme.