RobustFSM: Federated Submodular Maximization schützt vor böswilligen Clients

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Welt der maschinellen Lernverfahren spielt die submodulare Maximierung eine zentrale Rolle, wenn es darum geht, aus riesigen Datensätzen eine kleine, aber aussagekräftige Teilmenge zu extrahieren. Das neue Verfahren RobustFSM richtet sich speziell an das federated Learning, bei dem die Daten bei dezentralen Clients verbleiben und diese selbst bestimmen, wie gut ein Teilmenge ihre Daten repräsentiert.

Die Herausforderung liegt darin, dass die Aggregation der lokalen Informationen anfällig für böswillige Clients ist, die gefälschte Daten einreichen können – ein Phänomen, das an Backdoor-Angriffe in klassischen federated Learning-Setups erinnert, jedoch hier durch die besonderen Eigenschaften der submodularen Optimierung noch komplexer wird.

RobustFSM bietet eine robuste Lösung, die gegen verschiedene praktische Angriffe von Clients resistent ist. In umfangreichen Experimenten mit realen Datensätzen konnte gezeigt werden, dass die Qualität der Ergebnisse deutlich über der herkömmlichen federated Algorithmus liegt, insbesondere bei schweren Angriffsszenarien. In manchen Fällen verbessert sich die Leistung um bis zu 200 %.

Ähnliche Artikel