Unfolding-Netzwerke: Neue Theorie zur adversarialen Generalisierung
In einem brandneuen Beitrag auf arXiv wird die bislang wenig verstandene Robustheit von Unfolding‑Netzwerken gegenüber gezielten Angriffen systematisch untersucht. Diese Netzwerke, die aus iterativen Algorithmen entstehen und dabei strukturelle Vorwissen über die Daten einbeziehen, sind besonders für inverse Probleme wie das komprimierte Sensing geeignet – ein Feld, das von medizinischer Bildgebung bis hin zur Kryptographie reicht.
Die Autoren analysieren, wie sich Unfolding‑Netzwerke bei l₂‑beschränkten Angriffen, die mit der Fast‑Gradient‑Sign‑Method (FGSM) erzeugt werden, verhalten. Dazu entwickeln sie ein neues Verfahren zur Abschätzung der adversarialen Rademacher‑Komplexität für eine Familie modernster, überparametrierter Unfolding‑Modelle. Auf Basis dieser Schätzung liefern sie scharfe Fehlergrenzen, die exakt mit dem Angriffslevel skalieren – ein bislang unerreichtes Ergebnis in diesem Forschungsbereich.
Experimentelle Tests auf realen Datensätzen bestätigen die theoretischen Vorhersagen und zeigen, dass die Überparametrisierung der Modelle gezielt genutzt werden kann, um die adversariale Robustheit zu erhöhen. Damit liefert der Beitrag nicht nur die erste theoretische Analyse der adversarialen Generalisierung von Unfolding‑Netzwerken, sondern liefert auch praktische Einblicke, wie man neuronale Architekturen effizienter gegen Angriffe absichern kann.