MURIM: Reputation-basierte Anreize stärken Federated Learning

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Federated Learning hat sich als führendes, datenschutzfreundliches Lernparadigma etabliert, indem es Teilnehmern ermöglicht, Modellupdates statt Rohdaten auszutauschen. Trotz dieser Fortschritte bleiben zentrale Probleme bestehen: schwache Anreize für Clients, Datenschutzrisiken und begrenzte Ressourcen.

Um diese Herausforderungen zu adressieren, präsentiert die Forschung MURIM – ein mehrdimensionales, reputation-basiertes Anreizsystem. MURIM bewertet die Zuverlässigkeit, den Datenschutz, die Ressourcenkapazität und die Fairness jedes Clients und verhindert, dass böswillige oder unzuverlässige Teilnehmer ungerechtfertigte Belohnungen erhalten.

Das System vergibt Anreize anhand der tatsächlichen Beitragshöhe, der Latenz und der Reputation des Clients. Ein integriertes Verifizierungsmodul prüft die Zuverlässigkeit der Updates, sodass nur vertrauenswürdige Beiträge honoriert werden.

Umfangreiche Tests auf den Datensätzen MNIST, FMNIST und ADULT Income zeigen, dass MURIM die Fairness-Metriken um bis zu 18 % steigert, die Erfolgsraten von Datenschutzangriffen um 5‑9 % senkt und die Robustheit gegen Poisoning‑ und Rauschgradientenangriffe um bis zu 85 % gegenüber aktuellen Baselines verbessert. Gleichzeitig bleibt die Modellkonvergenz stabil, selbst in heterogenen und dynamischen Federated‑Learning‑Umgebungen.

Insgesamt demonstriert MURIM, wie ein gut abgestimmtes Anreizsystem die Sicherheit, Fairness und Effizienz von Federated Learning signifikant erhöhen kann, indem es böswillige Aktivitäten abschwächt und ehrliche, wertvolle Beiträge fördert.

Ähnliche Artikel