FedProTIP: Federated Continual Learning ohne Replay, dank Gradient‑Projektion
Ein neues Verfahren namens FedProTIP eröffnet die Federated Continual Learning (FCL) ohne die Notwendigkeit von Replay‑Daten. Durch die Projektion von Client‑Updates auf das orthogonale Komplement des von früheren Aufgaben erfassten Unterraums reduziert das System die Interferenz mit bereits gelernten Modellen und verhindert damit das klassische Problem des „catastrophischen Vergessens“.
FedProTIP kombiniert diese Gradient‑Projektion mit einer leichtgewichtigen Mechanik zur Aufgabenidentifikation. Auf Basis von Kern‑Datensätzen aus vorangegangenen Aufgaben kann das Modell die aktuelle Aufgabe vorhersagen und die Ausgaben des globalen Modells dynamisch anpassen. Dadurch bleibt die Leistung über die gesamte Aufgabenfolge hinweg stabil, auch wenn die Aufgabenidentitäten im Voraus unbekannt sind.
Umfangreiche Tests an etablierten FCL‑Benchmarks zeigen, dass FedProTIP die durchschnittliche Genauigkeit deutlich über den aktuellen Spitzenmethoden liegt. Besonders in heterogenen, dezentralen Umgebungen, in denen Kommunikation und Datenschutz eingeschränkt sind, demonstriert das Verfahren eine robuste und effiziente Lernfähigkeit.