Neues Paper: Lernbare Koopman-Operatoren verbessern Transformer-Vorhersagen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv-Paper präsentiert eine innovative Familie lernbarer Koopman-Operatoren, die lineare Dynamiktheorie mit modernen Deep‑Learning‑Architekturen für Zeitreihenprognosen verbinden.

Die Autoren stellen vier Varianten vor – scalar‑gated, per‑mode gated, MLP‑geformte Spektralabbildung und low‑rank Koopman‑Operatoren – die zwischen streng stabilen und unbeschränkten linearen latenten Dynamiken interpolieren.

Durch diese Parameterisierung können Forscher das Spektrum, die Stabilität und den Rang des linearen Übergangoperators explizit steuern, während gleichzeitig die Kompatibilität mit leistungsstarken nichtlinearen Backbones wie Patchtst, Autoformer und Informer erhalten bleibt.

In einem umfangreichen Benchmark, der neben LSTM, DLinear und einfachen diagonalen State‑Space‑Modellen auch leichte Transformer‑Varianten umfasst, zeigen die Experimente, dass die lernbaren Koopman‑Modelle ein günstiges Bias‑Variance‑Trade‑off bieten, die Kondition verbessern und latente Dynamiken besser interpretierbar machen.

Die Autoren liefern eine vollständige Spektralanalyse, einschließlich Eigenwerttrajektorien, Stabilitätsumfänge und erlernte Spektralverteilungen, die die theoretische Fundierung ihrer Ansätze unterstreichen.

Die Ergebnisse demonstrieren, dass lernbare Koopman‑Operatoren stabile, effektive und theoretisch fundierte Bausteine für Deep‑Forecasting‑Modelle darstellen.

Ähnliche Artikel