Neural Min‑Max-Spiele: Architektur, Initialisierung und Dynamik zum Gleichgewicht
In einer Vielzahl moderner KI-Anwendungen – von adversarialem Training über AI‑Alignment bis hin zur robusten Optimierung – lassen sich die zugrunde liegenden Prozesse als Nullsummenspiele zwischen neuronalen Netzen darstellen. Das von von Neumann und Nash definierte Gleichgewicht liefert dabei das gewünschte Verhalten des Systems.
Obwohl diese Spiele häufig nicht‑konvexe, nicht‑konkave Zielfunktionen besitzen, zeigen empirische Studien, dass einfache Gradient‑Methoden häufig konvergieren. Das deutet auf eine verborgene geometrische Struktur hin, die bislang wenig verstanden war. In dem neuen Beitrag von arXiv:2512.00389v1 wird ein theoretisches Rahmenwerk vorgestellt, das dieses Phänomen durch die Konzepte der versteckten Konvexität und Überparameterisierung erklärt.
Die Autoren identifizieren dafür ausreichende Bedingungen, die die Initialisierung, die Trainingsdynamik und die Netzwerkbreite betreffen und die globale Konvergenz zu einem Nash‑Gleichgewicht in einer breiten Klasse von nicht‑konvexen Min‑Max‑Spielen garantieren. Dabei handelt es sich um das erste Ergebnis, das solche Spiele mit zweischichtigen neuronalen Netzen behandelt. Technisch kombinieren sie einen neuen Pfadlängen‑Beweis für das abwechselnde Gradient‑Descent‑Ascent‑Schema mit einer Analyse, die zeigt, dass die Reduktion auf eine zweischichtige Polyak‑Łojasiewicz‑Bedingung unter Überparameterisierung mit hoher Wahrscheinlichkeit eintritt – unter Einsatz von Werkzeugen aus der Random‑Matrix‑Theorie.