DMN-Studie: Effizienz- und Genauigkeitsvorteile bei Materialnetzwerken
Deep Material Networks (DMNs) sind neuartige, strukturbeibehaltende Machine‑Learning‑Modelle, die mikromechanische Prinzipien in ihre Architektur einbetten. Dadurch können sie mit linearen elastischen Trainingsdaten arbeiten und anschließend in nichtlinearen, inelastischen Regimen extrapolieren – ein entscheidender Fortschritt für die multiskalige Modellierung komplexer Mikrostrukturen.
Die vorliegende Arbeit liefert die erste umfassende Bewertung der Leistungsfähigkeit von DMNs über den gesamten Offline‑Online‑Workflow hinweg. Dabei wurden verschiedene Trainingsparameter untersucht, darunter Initialisierung, Batch‑Größe, Datenmenge und Aktivierungsregularisierung, und deren Einfluss auf die Online‑Generalisation sowie die Unsicherheit der Vorhersagen gemessen.
Die Ergebnisse zeigen, dass sowohl der Vorhersagefehler als auch die Varianz mit zunehmender Trainingsdatenmenge deutlich abnehmen. Gleichzeitig haben die Wahl der Initialisierung und die Batch‑Größe einen signifikanten Einfluss auf die Modellleistung. Die Aktivierungsregularisierung erwies sich als entscheidend für die Kontrolle der Netzwerkkomplexität und damit für die Generalisierungsfähigkeit. Im Vergleich zur ursprünglichen DMN‑Formulierung erzielt die rotationsfreie Interaction‑based Material Network (IMN) eine Geschwindigkeitssteigerung von 3,4‑ bis 4,7‑fach bei der Offline‑Trainingsphase, während die Online‑Vorhersagegenauigkeit und -effizienz nahezu unverändert bleiben.
Diese Erkenntnisse verdeutlichen, wie gezielte Trainingsstrategien die Effizienz und Zuverlässigkeit von DMNs verbessern können, und ebnen den Weg für eine breitere Anwendung dieser Modelle in der schnellen Simulation von Materialien mit komplexen Mikrostrukturen.