Neues Lernverfahren nutzt Energieverlustfunktionen für physikalische Systeme

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv-Posting präsentiert einen innovativen Ansatz, bei dem physikalisches Wissen direkt in die Verlustfunktion von Machine‑Learning-Modellen einfließt. Statt sich ausschließlich auf architektonische Anpassungen zu verlassen, nutzt die Methode die thermische Gleichgewichtsbasis eines Systems und setzt die umgekehrte Kullback–Leibler‑Divergenz mit einer Boltzmann‑Verteilung ein. Das Ergebnis ist eine Energie‑Loss‑Funktion, die die Differenz zwischen den Daten und den Modellvorhersagen misst und damit Gradienten liefert, die stärker mit gültigen physikalischen Zuständen übereinstimmen.

Der neue Rahmen ist architekturunabhängig und rechenintensiv effizient, während er gleichzeitig die natürlichen Symmetrien des Systems respektiert. In praktischen Tests zeigte sich die Methode bei der molekularen Generierung und bei der Vorhersage von Spin‑Grundzuständen deutlich besser als herkömmliche Ziele wie der mittlere quadratische Fehler. Diese Fortschritte eröffnen einen vielversprechenden Weg, maschinelles Lernen in wissenschaftlichen Bereichen noch stärker an physikalische Prinzipien anzupassen.

Ähnliche Artikel