Neuer Ansatz steigert lokale Erklärbarkeit von Black-Box-Modellen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer Zeit, in der komplexe Machine‑Learning‑Modelle immer häufiger in kritischen Bereichen eingesetzt werden, ist es entscheidend, ihre Entscheidungen nachvollziehbar zu machen. Ein weit verbreitetes Verfahren dafür ist LIME, das lokale Erklärungen liefert, indem es ein einfaches Modell in der Nähe der zu erklärenden Instanz anpasst. LIME geht jedoch von einer linearen Trennlinie aus, was bei nichtlinearen Zusammenhängen zu ungenauen Erklärungen führt.

Die neue Methode nutzt Multivariate Adaptive Regression Splines (MARS), um die nichtlinearen lokalen Entscheidungsgrenzen präziser abzubilden. Dadurch wird die lokale Treue der Erklärung deutlich erhöht, weil das Modell das Verhalten des ursprünglichen Black‑Box‑Classifiers besser widerspiegelt.

Zusätzlich wird die N‑Ball‑Sampling‑Technik eingesetzt, die direkt aus der gewünschten Verteilung zieht, anstatt wie bei LIME Gewichtungen anzupassen. Dieser Ansatz verbessert die Glaubwürdigkeit der Erklärungen weiter und führt zu einer signifikanten Steigerung der Faithfulness‑Scores.

In Experimenten mit drei UCI‑Datensätzen und verschiedenen Klassifikatoren konnte die neue Technik die durchschnittliche Fehlerquote um 37 % senken, gemessen am Root‑Mean‑Square‑Error. Damit bietet sie eine vielversprechende Lösung für die Erzeugung hochtreuer, lokal interpretable Erklärungen in anspruchsvollen Anwendungen.

Ähnliche Artikel