Neurale CDEs verbessern Vorhersagen von Zeitreihenmodellen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der heutigen Datenanalyse sind lernbasierte Zeitreihenmodelle – egal ob kontinuierlich oder diskret – unverzichtbar, um die Zustände dynamischer Systeme vorherzusagen. Diese Modelle erzeugen Mehrschrittvorhersagen entweder direkt, indem sie den gesamten Horizont auf einmal prognostizieren, oder iterativ, indem sie ihre eigenen Vorhersagen Schritt für Schritt zurückführen. In beiden Fällen sind die Vorhersagen jedoch anfällig für Fehler, die sich mit jeder weiteren Vorhersage verstärken.

Um diesem Problem entgegenzuwirken, schlägt die neue Studie einen Predictor‑Corrector-Mechanismus vor. Der Predictor kann jedes beliebige lernbasierte Zeitreihenmodell sein, während der Corrector eine neuronale kontrollierte Differentialgleichung (CDE) nutzt. Der Corrector schätzt die Fehler des Predictors und korrigiert die Vorhersagen, wodurch die Gesamtleistung signifikant gesteigert wird. Der Ansatz funktioniert gleichermaßen bei unregelmäßig abgetasteten Daten sowie bei kontinuierlichen und diskreten Predictoren.

Zusätzlich werden zwei Regularisierungstechniken vorgestellt, die die Extrapolationsfähigkeit des Correctors verbessern und gleichzeitig die Trainingsgeschwindigkeit erhöhen. Diese Strategien ermöglichen es, die Korrektur auch bei komplexen, nichtlinearen Dynamiken zuverlässig einzusetzen.

Die Wirksamkeit des Mechanismus wurde an einer Vielzahl von Predictoren – darunter neuronale ODEs, Contiformer und DLinear – sowie an synthetischen, physikalisch simulierten und realen Datensätzen getestet. Die Ergebnisse zeigen, dass der Predictor‑Corrector-Ansatz die Vorhersagegenauigkeit konsequent über dem reinen Predictor liegt, was einen wichtigen Fortschritt für die Zeitreihenprognose darstellt.

Ähnliche Artikel