Sparse Isotonic Shapley Regression: Neue Methode für nichtlineare Erklärungen

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

Shapley‑Werte gelten als Goldstandard für Feature‑Attributionen in erklärbarer KI, stoßen jedoch häufig an zwei Grenzen: Erstens wird in der klassischen Theorie die Additivität des Wert‑Funktionsmodells vorausgesetzt, während reale Daten oft durch nicht‑gaussianische Verteilungen, schwere Ränder, Feature‑Abhängigkeiten oder domänenspezifische Verlustskalen diese Annahme verletzen. Zweitens ist die Berechnung dichten Shapley‑Werte in hochdimensionalen Räumen mit anschließendem ad‑hoc‑Thresholding kostenintensiv und kann zu inkonsistenten Erklärungen führen.

Um diese Probleme zu lösen, stellt die neue Methode Sparse Isotonic Shapley Regression (SISR) ein einheitliches, nichtlineares Erklärungsframework vor. SISR lernt gleichzeitig eine monotone Transformation, die die Additivität wiederherstellt, und wendet eine L0‑Sparsity‑Beschränkung auf den Shapley‑Vektor an. Dadurch wird die Rechenkomplexität in großen Feature‑Spaces drastisch reduziert.

Der Optimierungsalgorithmus kombiniert Pool‑Adjacent‑Violators für effiziente isotone Regression mit normalisiertem Hard‑Thresholding zur Auswahl der relevanten Features. Diese Kombination ermöglicht eine einfache Implementierung und garantiert globale Konvergenz. Analysen zeigen, dass SISR die wahre Transformation in einer Vielzahl von Szenarien exakt rekonstruiert und selbst bei hohem Rauschen eine starke Unterstützungserkennung liefert.

Erst in dieser Arbeit wird demonstriert, dass irrelevante Features und Inter‑Feature‑Abhängigkeiten zu einer echten Pay‑off‑Transformation führen können, die die ursprüngliche Additivität übersteigt. Die Ergebnisse legen nahe, dass SISR ein robustes Werkzeug für die Analyse hochdimensionaler, nichtlinearer Daten darstellt und damit die Grenzen traditioneller Shapley‑Methoden überwindet.

Ähnliche Artikel