AutoCL: Automatisierte Augmentation verbessert Wearable‑Aktivitätserkennung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues Verfahren namens AutoCL (Auto‑Augmentation Contrastive Learning) verspricht, die Erkennung von menschlichen Aktivitäten über Wearables ohne manuelle Datenanmerkungen deutlich zu verbessern. Das System nutzt selbstüberwachtes Lernen, um aus reinen Sensorwerten Muster zu extrahieren und damit die Notwendigkeit von kostenintensiven Annotationen zu umgehen.

Contrastive Learning, das für die Analyse von Low‑Semantic‑Sensor‑Signalen besonders wichtig ist, hängt stark von Datenaugmentationen ab. Für Wearable‑Daten, die oft wenig semantische Struktur besitzen, sind die herkömmlichen manuellen Augmentationstechniken jedoch unzuverlässig und wenig generalisierbar. AutoCL löst dieses Problem, indem es einen Generator in die Architektur einbettet, der selbstständig geeignete Augmentationen lernt.

Die Architektur basiert auf einem Siamese‑Netzwerk, das die Parameter des Backbones teilt und gleichzeitig einen Generator trainiert, der die Repräsentationen im latenten Raum nutzt, um Rauschen und redundante Informationen zu reduzieren. Zusätzlich werden ein Stop‑Gradient‑Mechanismus und eine Korrelation‑Reduktionsstrategie eingesetzt, um die Lernfähigkeit des Encoders weiter zu steigern.

In umfangreichen Tests auf vier weit verbreiteten HAR‑Datensätzen zeigte AutoCL eine signifikante Steigerung der Erkennungsgenauigkeit gegenüber aktuellen State‑of‑the‑Art‑Methoden. Das Ergebnis unterstreicht das Potenzial von automatisierter Augmentation, die Leistungsfähigkeit von Wearable‑basierten Aktivitätserkennungssystemen nachhaltig zu erhöhen.

Ähnliche Artikel