GFlowNets nutzen submodulare Obergrenzen zur effizienten Generierung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Generative Flow Networks (GFlowNets) sind generative Modelle, die lernen, zusammengesetzte Objekte in proportion zu ihrem unbekannten Wert – dem sogenannten Reward – zu sampeln. In der aktuellen Studie wird ein spezieller Fall untersucht, bei dem der Reward submodular ist, also eine abnehmende Grenzrate aufweist. Durch die submodulare Struktur lassen sich Obergrenzen für die Belohnung von bislang nicht beobachteten Objekten bestimmen.

Die Autoren analysieren, wie häufig solche Obergrenzen auftreten und wie viele unobservierte Objekte sie abdecken können. Auf Basis des Optimism‑in‑the‑Face‑of‑Uncertainty‑Prinzips stellen sie SUBo‑GFN vor, ein neues GFlowNet, das diese submodularen Obergrenzen nutzt, um das Modell zu trainieren. Im Vergleich zu klassischen GFlowNets erzeugt SUBo‑GFN bei gleicher Anzahl an Reward‑Abfragen mehrere Größenordnungen mehr Trainingsdaten.

In Experimenten mit synthetischen und realen submodularen Aufgaben zeigt SUBo‑GFN eine deutlich bessere Übereinstimmung der erzeugten Verteilung mit der Zielverteilung und liefert qualitativ hochwertige Kandidaten. Die Ergebnisse deuten darauf hin, dass die Kombination von submodularen Obergrenzen und GFlowNets ein vielversprechender Ansatz für effiziente Generierung komplexer Strukturen ist.

Ähnliche Artikel