Neuer Algorithmus SPECIAL sichert rückwärts Lernen in federierten Systemen

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

In realen verteilten Lernsystemen ändern sich die Datenverteilungen ständig, während Datenschutzbestimmungen den Austausch roher Daten verbieten. Dieses Problem wird als Federated Domain‑Incremental Learning (FDIL) bezeichnet, bei dem heterogene Clients Aufgaben in sich verändernden Domänen erhalten, aber die Klassenspalte konstant bleibt.

Der neue Ansatz SPECIAL (Server‑Proximal Efficient Continual Aggregation for Learning) erweitert das klassische FedAvg um einen einzigen serverseitigen „Anker“. In jedem Kommunikationsschritt wird die vom Client aktualisierte Modellvariante leicht an das vorherige globale Modell angepasst, wodurch ein Drift‑Kontrollmechanismus entsteht. Dadurch entfällt die Notwendigkeit von Replay‑Buffers, synthetischen Daten oder domänenspezifischen Klassifikationsköpfen, während die Kommunikationskosten und die Modellgröße unverändert bleiben.

Die zugehörige Theorie liefert zwei wichtige Ergebnisse: Erstens garantiert ein Backward Knowledge Transfer (BKT)-Grenzwert, dass der Verlust früherer Aufgaben nur um einen drift‑kontrollierten Term steigen kann, der mit mehr Runden, lokalen Epochen und teilnehmenden Clients abnimmt. Zweitens wird die erste nicht‑konvexe Konvergenzrate für FDIL mit partieller Teilnahme nachgewiesen: O((E/NT)^(1/2)), wobei E die lokalen Epochen, T die Kommunikationsrunden und N die pro Runde teilnehmenden Clients bezeichnet. Diese Rate entspricht derjenigen eines einzelnen Tasks bei FedAvg, trennt jedoch explizit die Optimierung über mehrere Aufgaben hinweg.

Mit SPECIAL wird federiertes Lernen in dynamischen Umgebungen robuster und effizienter, ohne zusätzliche Kommunikationsaufwand oder Modellkomplexität. Der Ansatz eröffnet neue Möglichkeiten für die Praxis, bei der kontinuierliche Anpassung an sich verändernde Datenverteilungen erforderlich ist.

Ähnliche Artikel