Neue Methode liefert handlungsorientierte Erklärungen für smarte Umgebungen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der Welt der regelbasierten Smart‑Environments gewinnt die Erklärbarkeit zunehmend an Bedeutung. Doch bislang fehlte ein etabliertes Verfahren, um sogenannte kontrafaktische Erklärungen – also Hinweise darauf, was anders hätte getan werden können, um ein gewünschtes Ergebnis zu erzielen – zu generieren. Das neue Papier von Forschern aus dem Bereich der erklärbaren KI (XAI) löst dieses Problem: Es stellt die erste formale Definition und Implementierung kontrafaktischer Erklärungen speziell für regelbasierte Umgebungen vor.

Die Autoren haben ein Plugin entwickelt, das einen bestehenden Erklärungse‑Engine für Smart‑Environments erweitert. Damit können Nutzer nicht nur die Ursache eines Ereignisses nachvollziehen, sondern auch konkrete Handlungsempfehlungen erhalten, die auf alternativen Szenarien basieren.

Um die Wirksamkeit der neuen Erklärungen zu prüfen, führte das Team eine Nutzerstudie mit 17 Teilnehmern durch. Die Ergebnisse zeigen, dass die Präferenz stark vom Kontext abhängt: In Situationen mit Zeitdruck bevorzugen die Nutzer die sprachlich einfache Kausal‑Erklärung, während kontrafaktische Erklärungen besonders dann geschätzt werden, wenn ein Problem gelöst werden soll und konkrete Handlungsoptionen benötigt werden.

Damit liefert die Arbeit nicht nur ein praktisches Tool für Smart‑Environments, sondern liefert auch empirische Erkenntnisse, die Entscheidungsträgern dabei helfen, den passenden Erklärungsstil je nach Anwendungsfall auszuwählen.

Ähnliche Artikel