Ein universelles Physik-Foundation-Modell: Der General Physics Transformer

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

Die jüngsten Fortschritte bei Foundation‑Modellen haben die Verarbeitung natürlicher Sprache revolutioniert – ein einziges, vortrainiertes Modell kann ohne erneutes Training für unzählige Aufgaben eingesetzt werden. Ein vergleichbares Modell für die Physik, ein sogenanntes Physics Foundation Model (PFM), könnte die Wissenschaftslandschaft neu gestalten, indem es den Zugang zu hochpräzisen Simulationen demokratisiert, die Entdeckung von Phänomenen beschleunigt und die Notwendigkeit spezialisierter Solver eliminiert.

Aktuelle Ansätze im maschinellen Lernen, die physikalische Prozesse berücksichtigen, sind jedoch stark domänenspezifisch und erfordern für jedes neue System ein erneutes Training. Das neue Modell, der General Physics Transformer (GPhyT), wurde auf 1,8 TB vielfältiger Simulationsdaten trainiert und zeigt, dass die Prinzipien eines Foundation‑Modells auch in der Physik anwendbar sind.

Der Schlüssel liegt darin, dass Transformer die Fähigkeit besitzen, die zugrunde liegenden Dynamiken aus dem Kontext zu erschließen. Dadurch kann ein einzelnes Modell Fluid‑Solid‑Interaktionen, Stoßwellen, thermische Konvektion und Mehrphasen‑Dynamik simulieren, ohne dass die zugrunde liegenden Gleichungen explizit vorgegeben werden.

GPhyT erzielt drei bedeutende Durchbrüche: Erstens übertrifft es spezialisierte Architekturen in mehreren Physikdomänen um bis zu 29‑fach, zweitens generalisiert es ohne weiteres Training auf völlig neue physikalische Systeme durch in‑Context‑Learning, und drittens liefert es stabile Langzeitvorhersagen über 50‑Schritt‑Rollouts.

Diese Ergebnisse beweisen, dass ein einziges Modell allgemeine physikalische Prinzipien allein aus Daten lernen kann. Damit ebnet GPhyT den Weg zu einem universellen PFM, das die Computational‑Science‑ und Engineering‑Praxis nachhaltig verändern könnte.

Ähnliche Artikel