Interaktive Erklärungen stärken Vertrauen in KI: Neue Studie zeigt Wirkung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Große KI‑Modelle wie GPT‑4 beschleunigen die Nutzung von künstlicher Intelligenz in Bereichen wie Recht, Gesundheit und Finanzen. Damit steigen die Anforderungen an Vertrauen und Transparenz. Eine neue quantitative Untersuchung beleuchtet, wie erklärbare KI‑Systeme das Vertrauen der Nutzer beeinflussen.

In einem webbasierten Simulationstest zur Kreditvergabe wurden verschiedene Erklärungsformen verglichen – von einfachen Feature‑Importance‑Darstellungen bis hin zu interaktiven Gegenfaktischen. Die Ergebnisse zeigen deutlich, dass interaktive Erklärungen die Nutzerbindung und das Vertrauen signifikant steigern. Besonders wichtig sind dabei Klarheit und Relevanz der Informationen.

Die Studie liefert damit konkrete, messbare Erkenntnisse für das wachsende Feld der nutzerzentrierten erklärbaren KI. Sie unterstreicht, dass ein durchdachtes Design von Erklärungen entscheidend dafür ist, wie Nutzer KI-Systeme wahrnehmen und ihnen vertrauen.

Ähnliche Artikel