Neues EEG-Emotionserkennungsmodell mit Hybrid-Transformer erzielt Rekordleistung
Emotionserkennung aus Elektroenzephalographie (EEG) ist ein zentrales Thema in der affektiven Informatik und für Entscheidungshilfesysteme von wachsender Bedeutung. Trotz großer Fortschritte bleibt die Aufgabe schwierig, weil EEG-Signale hochdimensional, verrauscht und stark von individuellen Unterschieden geprägt sind.
In einer aktuellen Studie wurde ein neues hybrides Deep‑Learning‑Modell vorgestellt, das Convolutional‑Neuronen, bidirektionale LSTM‑Schichten und Transformer‑Aufmerksamkeitsmechanismen kombiniert. Durch die Integration von Selbst‑Attention und gezielten Regularisierungstechniken soll Over‑Fitting reduziert und die Modellrobustheit erhöht werden.
Die Experimente wurden an einem öffentlich verfügbaren Datensatz mit drei emotionalen Zuständen – neutral, positiv und negativ – durchgeführt. Das Modell erreichte damit eine Rekordleistung, die deutlich über klassischen Machine‑Learning‑Ansätzen und anderen neuronalen Baselines liegt. Statistische Tests bestätigten die Signifikanz der Verbesserungen bei Kreuzvalidierung.
Eine Analyse der Feature‑Ebene zeigte, dass kovarianzbasierte EEG‑Merkmale die größte Trennkraft besitzen, was die Bedeutung von Inter‑Channel‑Beziehungen für die affektive Modellierung unterstreicht. Diese Erkenntnisse deuten darauf hin, dass sorgfältig gestaltete hybride Architekturen sowohl Genauigkeit als auch Interpretierbarkeit in der EEG‑basierten Emotionserkennung optimieren können, was weitreichende Implikationen für anwendungsorientierte affektive Systeme hat.