Out-of-Distribution-Erkennung stärkt Sicherheit autonomer Systeme

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Einsatzmöglichkeiten von KI-gesteuerten autonomen Systemen haben in den letzten Jahren dank Fortschritten in Robotik und maschinellem Lernen stark zugenommen. Damit diese Systeme verantwortungsbewusst eingesetzt werden können, ist eine gründliche Sicherheitsnachweisführung unerlässlich. Ein zentrales Problem dabei ist die Erkennung von Daten, die außerhalb des Trainingsbereichs liegen – sogenannte Out-of-Distribution (OoD)-Daten.

In einer umfassenden Übersicht werden verschiedene OoD-Erkennungsmethoden vorgestellt und deren Einsatzmöglichkeiten im gesamten Lebenszyklus von Machine‑Learning‑Modellen beleuchtet. Die Autoren erläutern, welche Faktoren die Sicherheit von autonomen Systemen erschweren und wie OoD-Erkennung dazu beitragen kann, Unsicherheiten frühzeitig zu erkennen.

Darüber hinaus werden praktische Hinweise für System- und Sicherheitsingenieure gegeben, die bei der Integration von OoD-Erkennung in bestehende Prozesse beachten sollten. Abschließend skizzieren die Forscher die noch offenen Herausforderungen und Forschungsfelder, die für die sichere Entwicklung und den Betrieb autonomer Systeme in kritischen Bereichen entscheidend sind.

Ähnliche Artikel