Graph Neural Networks beschleunigen ADMM in verteilten Optimierungen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv-Papier zeigt, wie die Alternating Direction Method of Multipliers (ADMM) durch Graph Neural Networks (GNNs) deutlich schneller und robuster wird. ADMM ist ein bewährtes Verfahren für dezentrale Optimierung, doch seine Konvergenz kann langsam sein und hängt stark von Hyperparametern ab.

Die Autoren stellen fest, dass die ADMM‑Iteration im Rahmen des Message‑Passing‑Frameworks von GNNs dargestellt werden kann. Auf dieser Basis trainieren sie ein GNN, das adaptive Schrittgrößen und Kommunikationsgewichte vorhersagt, indem es die aktuellen Iteratendaten nutzt. Durch das „Unrolling“ von ADMM über eine feste Anzahl von Schritten wird das Netzwerk end‑to‑end optimiert, um den Fehler der Enditeraten zu minimieren, während die Konvergenzgarantien des Algorithmus erhalten bleiben.

Numerische Tests belegen, dass die lernbasierte Variante die Konvergenzgeschwindigkeit und die Lösungsgüte im Vergleich zu klassischem ADMM deutlich verbessert. Der komplette Code ist öffentlich auf GitHub verfügbar: https://github.com/paulhausner/learning-distributed-admm.

Ähnliche Artikel