Deep Learning: EU AI Act verlangt neue Prüfungsstandards für Klasse‑III‑Geräte
Mit dem Aufkommen von Deep‑Learning‑Technologien eröffnet sich für die Automatisierung visueller Inspektionen von Klasse‑III‑Medizinprodukten ein enormes Potenzial. Durch den Einsatz von KI‑Systemen können Qualitätskontrollen schneller und fehlerfreier durchgeführt werden – ein Gewinn für Hersteller und Patienten gleichermaßen.
Die neue EU‑AI‑Verordnung stellt jedoch hohe Anforderungen an solche Hochrisikosysteme. Im Vergleich zu den etablierten Regelwerken wie der Medizinprodukteverordnung (MDR) und den Qualitätsstandards der US‑FDA (QSR) unterscheiden sich die Verpflichtungen in Umfang und Tiefe deutlich. Hersteller müssen nun nicht nur die klassischen Risikomanagement‑Prinzipien erfüllen, sondern auch neue Vorgaben zu Datensatz‑Governance, Modellvalidierung, Erklärbarkeit und laufender Überwachung nachweisen.
Ein besonderer Fokus liegt auf der Datenverwaltung: Die KI‑Modelle benötigen umfangreiche, repräsentative Datensätze, um zuverlässig zu funktionieren. Gleichzeitig müssen die Unternehmen die Anforderungen an die Datenaufbewahrung erfüllen, ohne die Vertraulichkeit und Sicherheit der Patientendaten zu gefährden. Die statistische Signifikanz der Validierung ist ein weiteres Problem, da die Anzahl von Defektdaten oft begrenzt ist.
Die Autoren skizzieren mögliche Lösungsansätze, etwa die Nutzung von synthetischen Daten, die Implementierung von kontinuierlichen Lernzyklen und die Entwicklung von transparenten Entscheidungswegen. Gleichzeitig weisen sie auf Unsicherheiten hin, die sich aus der globalen Compliance‑Landschaft und den unterschiedlichen regulatorischen Erwartungen ergeben.
Die Arbeit ist ein technisches, akademisches Gutachten und ersetzt keine rechtliche Beratung. Sie soll Hersteller dabei unterstützen, die Herausforderungen der EU‑AI‑Verordnung zu verstehen und geeignete Strategien für die Zulassung ihrer KI‑basierten Inspektionssysteme zu entwickeln.