FedIA: Neue Methode für domänenrobustes Federated Graph Learning
In der Welt des Federated Graph Learning (FGL) stellen unterschiedliche Datenquellen – etwa die Nutzerprofile von Twitch-Gamern oder die mehrsprachigen Wikidata-Netze – ein großes Problem dar: die einzelnen Client‑Modelle entwickeln sich in inkompatible Richtungen. Das führt dazu, dass herkömmliche Aggregationsverfahren instabil und wenig effektiv sind.
Die Ursache liegt nicht in der Gewichtung der Clients, sondern in dem „rauschenden“ Gradienten‑Signal. Untersuchungen zeigen, dass ein Großteil der Gradientendimensionen von domänenspezifischer Varianz dominiert wird. FedIA ändert die Herangehensweise: anstatt zuerst zu aggregieren, wird zuerst projiziert und damit das Rauschen reduziert.
Der Ansatz besteht aus zwei Schritten: Erstens filtert ein serverseitiger Top‑ρ‑Maskierer nur die etwa 5 % der wichtigsten Koordinaten heraus. Zweitens nutzt ein leichtgewichtiges, Einfluss‑reguliertes Momentum‑Gewicht die Ausreißer‑Clients unterdrücken. Dadurch entstehen keine zusätzlichen Upload‑Daten und der Server benötigt nur minimalen Speicher.
In Tests auf homogenen Twitch‑Netzen und heterogenen Wikipedia‑Graphen zeigte FedIA eine flüssigere, stabilere Konvergenz und höhere Endgenauigkeit als neun starke Baselines. Die theoretische Analyse bestätigt, dass die dynamische Projektion das optimale \(\mathcal{O}(\sigma^{2}/\sqrt{T})\)‑Verhalten beibehält.