TrajSyn: Datensatz‑Distillation aus Federated Learning für sichere Server‑Training
Deep‑Learning‑Modelle, die auf Edge‑Geräten laufen, finden immer mehr Einsatz in sicherheitskritischen Anwendungen. Ihre Anfälligkeit für gezielte Angriffe stellt dabei ein erhebliches Risiko dar – besonders im Federated‑Learning‑Umfeld, wo identische Modelle an tausende von Clients verteilt werden.
Adversarial Training gilt als wirksamer Schutz, ist aber im Federated Learning schwer umzusetzen, weil die Privatsphäre der Client‑Daten strikt geschützt werden muss und die Rechenleistung an den Geräten begrenzt ist. Mit dem neuen Framework TrajSyn wird dieses Problem elegant gelöst: Es erzeugt aus den Update‑Trajektorien der Client‑Modelle ein Proxy‑Datenset, ohne jemals auf rohe Daten zuzugreifen.
In umfangreichen Bildklassifikations‑Benchmarks zeigt TrajSyn eine konsequente Steigerung der adversarialen Robustheit – und das ohne zusätzlichen Rechenaufwand auf den Client‑Geräten. Damit eröffnet das Verfahren einen praktikablen Weg für serverseitiges, datenschutzkonformes Adversarial Training in verteilten Lernsystemen.