Neue Normalisierungsmethode verbessert Zeitreihenprognosen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Welt der Zeitreihenanalyse stellen nicht-stationäre Daten ein großes Problem dar: die statistischen Eigenschaften verändern sich im Laufe der Zeit und führen zu unerwarteten Verteilungssprüngen, die die Genauigkeit von Prognosemodellen stark beeinträchtigen.

Um diesem Phänomen entgegenzuwirken, wurden bisher verschiedene Instance‑Normalization‑Ansätze entwickelt. Diese berücksichtigen jedoch nicht die inneren Verschiebungen innerhalb einzelner Instanzen, was zu suboptimalen Ergebnissen führt.

Die neue Studie führt zwei innovative Punkt‑Level‑Methoden ein: Learning Distribution (LD) und Learning Conditional Distribution (LCD). LD korrigiert interne Diskrepanzen, indem es die Verteilung von Eingabe und Ausgabe an jedem Zeitschritt mit unterschiedlichen Parametern modelliert. LCD nutzt neuronale Netze, um Skalierungskoeffizienten für die Ausgabe vorherzusagen.

Durch umfangreiche Tests mit unterschiedlichen Basis‑Modellen auf öffentlichen Benchmark‑Datensätzen konnte gezeigt werden, dass beide Ansätze die Prognoseleistung signifikant steigern und das Punkt‑Level‑Paradigma als effektive Lösung für inner‑Instance‑Verteilungsschwankungen etablieren.

Ähnliche Artikel