Privatsphäre ohne Qualitätsverlust bei heterogenen Labels im Federated Learning

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

In einer aktuellen Studie zum Federated Learning (FL) wird untersucht, wie sich unterschiedliche Label‑Sätze der einzelnen Clients auf die Modellleistung auswirken. Während in den meisten Arbeiten davon ausgegangen wird, dass alle Clients ihre kompletten Labels offenlegen, betrachtet die neue Arbeit die Situation, in der die Labels nur dem zentralen Server zugänglich sind – ein Szenario, das die Privatsphäre der Teilnehmer deutlich erhöht.

Die Forscher vergleichen zwei Varianten: Bei der öffentlichen Variante kennen die Clients die Gesamtheit aller Labels in der Federierung, bei der privaten Variante nicht. Um die Herausforderungen zu bewältigen, wenden sie klassische Techniken aus dem Bereich der Klassifikator‑Kombination an und kombinieren sie mit zentraler Abstimmung, um die Repräsentationen der einzelnen Modelle auszurichten. Zusätzlich passen sie gängige FL‑Methoden an die private Label‑Umgebung an.

Die Experimente zeigen deutlich, dass die Reduktion der für jeden Client verfügbaren Labels die Leistung aller getesteten Verfahren erheblich verschlechtert. Eine zentrale Abstimmung der Modelle kann die Situation teilweise verbessern, führt jedoch häufig zu höherer Varianz. Trotz dieser Schwierigkeiten liefern die angepassten Standard‑FL‑Methoden vergleichbare Ergebnisse wie bei der öffentlichen Variante. Das bedeutet, dass Clients ihre Labels privat halten können, ohne dabei signifikant an Genauigkeit zu verlieren.

Die Arbeit liefert damit wichtige Erkenntnisse für die Praxis: Federated Learning kann so gestaltet werden, dass die Privatsphäre der Teilnehmer gewahrt bleibt, ohne die Leistungsfähigkeit der Modelle zu beeinträchtigen. Diese Ergebnisse sind ein bedeutender Schritt in Richtung sicherer und gleichzeitig leistungsfähiger verteilter Lernsysteme.

Ähnliche Artikel