Neues Framework TACO verbessert unüberwachtes kombinatorisches Optimieren

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Unüberwachtes neuronales kombinatorisches Optimieren (NCO) ermöglicht es, leistungsstarke Solver zu trainieren, ohne dass echte Lösungen als Trainingsdaten benötigt werden. Bisher gibt es zwei getrennte Ansätze: Modelle, die für die Generalisierung über viele Instanzen hinweg optimiert sind, und instanzspezifische Modelle, die bei jedem Testfall separat angepasst werden.

Während die generalisierenden Modelle bei der Inferenz schnell arbeiten, fehlt ihnen die Fähigkeit, sich an einzelne Instanzen anzupassen. Im Gegensatz dazu sind die instanzspezifischen Modelle flexibel, nutzen jedoch nicht die beim Training erlernte strukturelle Vorwissen und laufen Gefahr, in schlechte lokale Optima zu geraten.

Die neue Methode TACO (Test‑time Adaptation for Unsupervised Combinatorial Optimization) verbindet diese beiden Paradigmen. Durch ein gezieltes Warm‑Start‑Verfahren werden Teile der trainierten Parameter teilweise gelockert, sodass das Modell seine erlernte Vorwissen beibehält und gleichzeitig schnell an die aktuelle Instanz angepasst werden kann. Im Vergleich zu herkömmlichem Feintuning oder dem Training eines Modells von Grund auf liefert TACO bessere Lösungen bei nahezu identischem Rechenaufwand.

Experimentelle Ergebnisse auf klassischen kombinatorischen Optimierungsproblemen zeigen, dass TACO die Qualität der Lösungen signifikant steigert und damit einen wichtigen Schritt in Richtung effizienter, unüberwachter Optimierung darstellt.

Ähnliche Artikel