Neue Metriken zur fairen Feature‑Bedeutung: Occlusion & Permutation

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Mit dem wachsenden Einfluss von Machine‑Learning‑Modellen auf gesellschaftliche Entscheidungen wird die Transparenz dieser Systeme immer wichtiger. Besonders im Bereich der Fairness stellt die undurchsichtige Funktionsweise von Modellen ein Hindernis für Vertrauen und Verantwortung dar.

Um zu verstehen, wie einzelne Merkmale die Ergebnisse von Modellen beeinflussen, wurden zwei modellunabhängige Verfahren entwickelt. Das erste Verfahren vergleicht die Fairness eines Modells vor und nach einer gezielten Permutation eines Merkmals. Durch diese Intervention wird die Wirkung des Merkmals auf die Vorhersagen isoliert und quantifiziert.

Das zweite Verfahren misst die Fairness von Modellen, die mit und ohne ein bestimmtes Merkmal trainiert wurden. Durch die Anwendung von Occlusion‑Methoden und der effizienten Minipatch‑Lerntechnik lässt sich die Berechnung erheblich vereinfachen, ohne die Aussagekraft zu verlieren.

Die experimentellen Ergebnisse zeigen, dass beide Ansätze einfach, skalierbar und interpretierbar sind. Sie liefern neue, praktikable Werkzeuge, um die Einflüsse einzelner Merkmale auf die Fairness von Modellen zu quantifizieren und damit verantwortungsbewusste KI‑Entwicklung zu unterstützen.

Ähnliche Artikel