FedSGM: Neues Framework für komprimiertes, konfigurationsbewusstes Federated
In einer wegweisenden Veröffentlichung präsentiert das Forschungsteam FedSGM, ein einheitliches Framework für federated constrained optimization, das vier zentrale Herausforderungen des Federated Learning (FL) gleichzeitig adressiert: funktionale Einschränkungen, Kommunikationsengpässe, lokale Updates und partielle Client‑Teilnahme.
FedSGM baut auf dem Switching Gradient Method auf und bietet projection‑freie, primal‑only Updates, wodurch teure Dual‑Variablen‑Tuning‑Schritte oder innere Solver entfällt. Um die Beschränkungen der Kommunikation zu überwinden, integriert das System bidirektionales Error‑Feedback, das die Verzerrung durch Kompression korrigiert und gleichzeitig die Wechselwirkung zwischen Kompressionsrauschen und mehrstufigen lokalen Updates explizit berücksichtigt.
Die Autoren liefern solide Konvergenzgarantien: Der durchschnittliche Iterat erreicht die klassische O(1/√T)-Rate, ergänzt durch hochwahrscheinliche Schranken, die den Optimierungsfortschritt von Stichprobenrauschen durch partielle Teilnahme entkoppeln. Zusätzlich wird eine weiche Switching‑Variante vorgestellt, die Updates in der Nähe der Grenzbedingungen stabilisiert.
FedSGM ist laut den Autoren das erste Framework, das funktionale Einschränkungen, Kompression, mehrere lokale Updates und partielle Client‑Teilnahme in einer theoretisch fundierten Basis vereint. Die theoretischen Ergebnisse wurden durch Experimente auf Neyman‑Pearson‑Klassifikationsaufgaben und konstrahierten Markov‑Entscheidungsprozessen (CMDP) validiert.