ITL‑LIME: Transferlernen verbessert lokale Erklärungen bei knappen Daten
Die neue Methode ITL‑LIME setzt auf Transferlernen, um die Zuverlässigkeit von lokalen Erklärungen in Datenmangel‑Szenarien zu erhöhen. Traditionelle LIME‑Ansätze erzeugen durch zufällige Störungen oft unrealistische Varianten, die die wahre Datenstruktur verlassen und die Genauigkeit der Surrogat‑Modelle gefährden.
ITL‑LIME nutzt stattdessen echte Instanzen aus einer verwandten Quell‑Domäne. Durch Clustering werden Prototypen erstellt, und aus dem Cluster, der dem Zielbeispiel am ähnlichsten ist, werden passende reale Datenpunkte gezogen. Diese werden mit den Nachbarn des Zielbeispiels kombiniert, sodass die lokale Umgebung realistischer und stabiler wird.
Ein kontrastiver Encoder fungiert als Gewichtungsmechanismus, der die Kompaktheit der Lokalität weiter optimiert. Das Ergebnis ist eine höhere Erklärungstreue und weniger Schwankungen, selbst wenn die Trainingsdaten knapp sind. Diese Innovation eröffnet neue Möglichkeiten für erklärbare KI in ressourcenarmen Umgebungen.