Baseline-Auswahl entscheidet über XAI-Erklärbarkeit – Methode verbessert Trade‑Off
In der Welt der erklärbaren künstlichen Intelligenz (XAI) stehen Attributionsmethoden im Mittelpunkt, wenn es darum geht, die Entscheidungen von Modellen nachvollziehbar zu machen. Typischerweise werden diese Methoden anhand von Fidelity‑Messgrößen wie Insertion und Deletion bewertet, die beide auf einer sogenannten Baseline‑Funktion beruhen. Diese Baseline verändert die Pixel eines Eingangsbildes, die laut Attributionskarte als besonders wichtig gelten.
Die neue Studie zeigt, dass die Wahl der Baseline einen entscheidenden Einfluss auf die Bewertung der Attributionsmethoden hat. Schon ein einfaches lineares Modell kann bei unterschiedlichen Baselines zu widersprüchlichen Ergebnissen führen, was die Vergleichbarkeit der Methoden stark beeinträchtigt. Die Autoren stellen daher die Frage: Welche Baseline ist die richtige?
Um diese Frage zu beantworten, definieren die Forscher zwei zentrale Eigenschaften einer idealen Baseline: Erstens muss sie Informationen aus dem Bild entfernen, und zweitens darf sie keine stark abweichenden, out‑of‑distribution (OOD) Bilder erzeugen. Ihre Analyse zeigt, dass bisher getestete Baselines weder beide Kriterien gleichzeitig erfüllen noch die gewünschte Balance bieten. Es besteht ein klarer Trade‑Off: Entweder entfernen die Baselines zu viel Information oder erzeugen zu viele OOD‑Bilder.
Als Lösung schlagen die Autoren eine neuartige Baseline vor, die auf aktuellen Techniken der Feature‑Visualisierung basiert. Diese modellabhängige Baseline entfernt gezielt Informationen, ohne dabei stark abweichende Bilder zu erzeugen, und verbessert damit die Balance zwischen den beiden Kriterien deutlich im Vergleich zu bestehenden Ansätzen. Der zugehörige Code ist öffentlich zugänglich unter https://github.com/deel-ai-papers/Back-to-the-Baseline.