Neue Studie zeigt: Lernbarkeit von Verteilungsklassen bei adaptiven Gegnern
In einer aktuellen Veröffentlichung auf arXiv wird die Frage untersucht, wie gut Lernalgorithmen Verteilungsklassen erkennen können, wenn sie von adaptiven Gegnern herausgefordert werden. Diese Gegner können die vom Lernenden angeforderten Stichproben abfangen, verändern und anschließend weiterleiten – und zwar mit vollem Wissen über die Daten.
Im Gegensatz dazu stehen „oblivious“ Gegner, die lediglich die zugrunde liegende Verteilung verändern, aber die i.i.d.-Natur der Stichproben nicht beeinflussen können. Die Autoren führen ein allgemeines Lernbarkeitskonzept ein, das die Ressourcen des Gegners berücksichtigt und zeigen, dass die Lernbarkeit unter adaptiven Angriffen eine strengere Bedingung darstellt als unter oblivious Angriffen.
Die Ergebnisse verdeutlichen, dass adaptive Gegner die Lernfähigkeit von Algorithmen erheblich einschränken können und legen damit einen wichtigen Grundstein für zukünftige Forschung im Bereich robustes maschinelles Lernen.