ITL‑LIME: Transferlernen verbessert lokale Erklärungen bei knappen Daten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die neue Methode ITL‑LIME setzt auf Transferlernen, um die Zuverlässigkeit von lokalen Erklärungen in Daten­mangel‑Szenarien zu erhöhen. Traditionelle LIME‑Ansätze erzeugen durch zufällige Störungen oft unrealistische Varianten, die die wahre Datenstruktur verlassen und die Genauigkeit der Surrogat‑Modelle gefährden.

ITL‑LIME nutzt stattdessen echte Instanzen aus einer verwandten Quell‑Domäne. Durch Clustering werden Prototypen erstellt, und aus dem Cluster, der dem Ziel­beispiel am ähnlichsten ist, werden passende reale Datenpunkte gezogen. Diese werden mit den Nachbarn des Ziel­beispiels kombiniert, sodass die lokale Umgebung realistischer und stabiler wird.

Ein kontrastiver Encoder fungiert als Gewichtungsmechanismus, der die Kompaktheit der Lokalität weiter optimiert. Das Ergebnis ist eine höhere Erklärungs­treue und weniger Schwankungen, selbst wenn die Trainingsdaten knapp sind. Diese Innovation eröffnet neue Möglichkeiten für erklärbare KI in ressourcenarmen Umgebungen.

Ähnliche Artikel