TensorGalerkin: Revolutionärer, GPU‑schneller Galerkin‑Algorithmus für PDEs

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues, einheitliches Framework für die numerische Lösung, die konstrahierte Optimierung und das physikbasierte Lernen von partiellen Differentialgleichungen (PDEs) mit variationaler Struktur wurde vorgestellt. Das Konzept basiert auf einer Galerkin‑Diskretisierung der zugrunde liegenden Variationsformen und bietet dank eines hochoptimierten, GPU‑kompatiblen TensorGalerkin‑Frameworks für die Assemblierung linearer Systeme (Steifigkeitsmatrizen und Ladungsvektoren) eine bemerkenswerte Effizienz.

TensorGalerkin arbeitet, indem es elementweise Operationen auf Tensoren umwandelt und anschließend eine globale Reduktion durchführt. Diese wird mittels einer sparsamen Matrixmultiplikation realisiert, die eine Nachrichtenweitergabe entlang des vom Mesh erzeugten Sparsity‑Graphen ermöglicht. Durch diese Technik lassen sich die Assembly‑Operationen massiv parallelisieren und die Rechenzeit drastisch reduzieren.

Das Framework ist vielseitig einsetzbar: Es dient als hochleistungsfähiger PDE‑Solver, als vollständig differenzierbares System für PDE‑beschränkte Optimierung und als physikinformierter Operator‑Learning‑Algorithmus. In umfangreichen Benchmarks – darunter 2‑D‑ und 3‑D‑elliptische, parabolische sowie hyperbolische Gleichungen auf unstrukturierten Netzen – zeigte es signifikante Leistungs- und Genauigkeitsverbesserungen gegenüber einer Vielzahl von Vergleichsverfahren.

Ähnliche Artikel