Masked Autoencoders für Ultraschall: Robuste Repräsentationen für Anwendungen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Forscher haben Masked Autoencoders (MAEs) in Kombination mit Vision Transformer‑Architekturen auf ein‑dimensionale Ultraschallsignale angewendet. Dieser Ansatz erweitert die bislang in der Bildverarbeitung bewährte Technik auf ein völlig neues Gebiet.

Ultraschall wird in Bereichen wie der zerstörungsfreien Prüfung (NDT) und der strukturellen Gesundheitsüberwachung (SHM) eingesetzt, wo beschriftete Daten selten und stark domänenspezifisch sind. Die fehlende Beschriftung erschwert das Training traditioneller Modelle.

Die Studie nutzt MAEs, um auf unlabelierten synthetischen Ultraschall‑Datensätzen vorzutrainieren. Durch das Maskieren von Signalabschnitten lernt das Modell robuste, allgemeine Repräsentationen, die anschließend für spezifische Aufgaben wie die Zeit‑der‑Flug‑Klassifikation verwendet werden können.

Ein systematischer Vergleich von Modellgröße, Patchgröße und Maskierungsrate zeigte, dass vortrainierte Modelle die Effizienz des Lernens erhöhen und die Genauigkeit bei nachgelagerten Aufgaben deutlich steigern.

Im direkten Vergleich übertreffen die vortrainierten MAEs sowohl Modelle, die von Grund auf neu trainiert wurden, als auch leistungsstarke CNN‑Baselines, die speziell für die jeweilige Aufgabe optimiert wurden.

Besonders hervorzuheben ist die Transferfähigkeit: Das Vortraining auf synthetischen Daten führt zu einer besseren Leistung auf real gemessenen Ultraschall‑Signalen als ein Training ausschließlich mit den begrenzten realen Datensätzen.

Diese Ergebnisse unterstreichen das enorme Potenzial von Masked Autoencoders für skalierbares, selbstüberwachtes Lernen in der Ultraschallanalyse und eröffnen neue Wege für Anwendungen in Industrie und Forschung.

Ähnliche Artikel