MoWE: Wettervorhersagen neu kombiniert – 10 % bessere Genauigkeit

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Wettervorhersagen, die ausschließlich auf Daten basieren, haben in den letzten Jahren zwar große Fortschritte gemacht, doch die Leistungssteigerung ist inzwischen nahezu gesättigt. Das neue Modell „Mixture of Weather Experts“ (MoWE) bietet einen frischen Ansatz, um diese Grenze zu überwinden, ohne einen völlig neuen Vorhersagealgorithmus zu entwickeln.

MoWE kombiniert die Ausgaben mehrerer etablierter Wettermodelle zu einer einzigen, hochpräzisen Vorhersage. Dabei nutzt es ein Vision‑Transformer‑basiertes Gating‑Netzwerk, das für jeden Gitterpunkt und jede Vorhersagezeit dynamisch die Gewichtung der einzelnen „Experten“ lernt. Das Ergebnis ist ein deterministischer Forecast, der in der Fehlergröße (Root Mean Squared Error, RMSE) besser abschneidet als jedes einzelne Modell.

Die Studie zeigt, dass MoWE auf einer 2‑Tage‑Vorhersagezeit bis zu 10 % niedrigere RMSE‑Werte erzielt als das bisher leistungsstärkste KI‑Wettermodell. Darüber hinaus übertrifft es auch die einfache Mittelwertbildung der Experten deutlich. Der Ansatz erfordert dabei deutlich weniger Rechenressourcen als die einzelnen Modelle und ist damit skalierbar für groß angelegte Wettervorhersagen.

MoWE demonstriert, wie die Kombination vorhandener Spitzenmodelle mit moderner Transformer‑Technologie die Grenzen der datengetriebenen Wettervorhersage verschieben kann – effizient, skalierbar und mit messbar höherer Genauigkeit.

Ähnliche Artikel