AI Harmonics: Menschzentrierte, schweregrad-adaptive Risikobewertung von KI
Die allgegenwärtige Dominanz von Künstlicher Intelligenz bringt bislang unvergleichliche gesellschaftliche Schäden und Risiken mit sich. Aktuelle Bewertungsmodelle konzentrieren sich vorwiegend auf interne Compliance‑Standards und vernachlässigen dabei die vielfältigen Perspektiven der Betroffenen sowie die konkreten Folgen in der Praxis.
Aus diesem Grund schlagen die Autoren einen Paradigmenwechsel vor: eine menschenzentrierte, schweregrad‑adaptive Risikobewertung, die sich auf empirische Vorfalldaten stützt. Im Mittelpunkt steht das neue Framework AI Harmonics, das einen innovativen Messwert – den AIH (AI Harmonics) – einführt. Dieser nutzt ordinale Schweregraddaten, um relative Auswirkungen zu erfassen, ohne dass exakte numerische Schätzungen erforderlich sind.
AI Harmonics verbindet eine robuste, generalisierte Methodik mit einem datengetriebenen, stakeholder‑bewussten Ansatz zur Erfassung und Priorisierung von KI‑Schäden. Experimentelle Analysen anhand annotierter Vorfallsdaten zeigen, dass politische und physische Schäden die höchste Konzentration aufweisen und daher dringende Gegenmaßnahmen erfordern. Politische Schäden untergraben das öffentliche Vertrauen, während physische Schäden ernsthafte, sogar lebensbedrohliche Risiken darstellen – ein klarer Hinweis auf die Relevanz des Ansatzes in der realen Welt.
Schließlich demonstrieren die Autoren, dass AI Harmonics konsequent ungleiche Schadensverteilungen aufdeckt. Dadurch können Entscheidungsträger und Organisationen ihre Minderungskampagnen gezielt ausrichten und Ressourcen effizient einsetzen.