Neuer Algorithmus TV-HSGT verbessert Online-Optimierung in dynamischen Netzwerken

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Mit dem stetig wachsenden Datenvolumen und der zunehmenden Dynamik in verteilten Systemen wird Online‑Optimierung immer wichtiger für Echtzeit‑Entscheidungen. Ein neuer Ansatz, der als TV‑HSGT (Time‑Varying Hybrid Stochastic Gradient Tracking) bezeichnet wird, kombiniert row‑stochastic und column‑stochastic Kommunikationsschemata über zeitlich variierende gerichtete Graphen. Dadurch entfällt die Notwendigkeit, den Perron‑Vektor zu schätzen oder Ausgangsgradinformationen zu kennen.

Der Algorithmus nutzt sowohl aktuelle als auch rekursive stochastische Gradienten, um die Varianz zu reduzieren und gleichzeitig die globale Abstiegsrichtung präzise zu verfolgen. Durch diese hybride Strategie kann TV‑HSGT dynamische Regret‑Grenzen verbessern, ohne die übliche Annahme einer beschränkten Gradienten­norm zu erfordern.

Experimentelle Tests bei logistischen Regressionsaufgaben zeigen, dass TV‑HSGT besonders in ressourcenbeschränkten und stark dynamischen Umgebungen eine hohe Effektivität aufweist. Der Ansatz eröffnet neue Möglichkeiten für robuste, verteilte Optimierungsverfahren in modernen, vernetzten Anwendungen.

Ähnliche Artikel