Datenaugmentation verbessert maschinelles Unlearning deutlich

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Maschinelles Unlearning (MU) zielt darauf ab, den Einfluss bestimmter Daten aus einem bereits trainierten Modell zu entfernen, ohne die Leistung auf den verbleibenden Daten zu beeinträchtigen. Obwohl einige Studien bereits Zusammenhänge zwischen Memorisation und Datenaugmentation aufzeigen, blieb die systematische Gestaltung von Augmentationsstrategien im Kontext von MU bislang wenig erforscht.

In der vorliegenden Arbeit wird der Einfluss verschiedener Augmentationsmethoden auf die Effektivität von Unlearning‑Techniken untersucht. Dabei kommen die Verfahren SalUn, Random Label und Fine‑Tuning zum Einsatz. Die Experimente wurden auf den Datensätzen CIFAR‑10 und CIFAR‑100 durchgeführt, wobei unterschiedliche Vergessungsraten variiert wurden.

Die Ergebnisse zeigen, dass eine gezielte Augmentation die Unlearning‑Leistung deutlich steigert und die Leistungslücke zu vollständig neu trainierten Modellen reduziert. Besonders die TrivialAug‑Strategie konnte die durchschnittliche Gap‑Metrik um bis zu 40,12 % senken. Diese Erkenntnisse unterstreichen, dass Datenaugmentation nicht nur die Memorisation verringert, sondern auch ein entscheidender Faktor für effizientes, datenschutzfreundliches Unlearning ist.

Ähnliche Artikel