EchoLSTM: Selbstreflektierende RNNs verbessern Langzeitgedächtnis
Neues Recurrent Neural Network namens EchoLSTM nutzt ein innovatives Prinzip namens Output‑Conditioned Gating, um sich selbst zu reflektieren und dadurch das Langzeitgedächtnis zu stabilisieren. Durch die Anpassung der internen Speicher‑Gate an frühere Vorhersagen entsteht ein Feedback‑Loop, der die Gedächtnis‑Retention deutlich erhöht.
In einer Reihe anspruchsvoller Tests übertrifft EchoLSTM herkömmliche LSTMs signifikant. Auf dem speziell entwickelten Distractor Signal Task erreicht das Modell 69,0 % Genauigkeit – ein Vorsprung von 33 Prozentpunkten gegenüber dem Standard‑LSTM. Auf dem etablierten ListOps Benchmark liegt EchoLSTM mit 69,8 % knapp hinter modernen Transformer‑Modellen, die 71,8 % erreichen, und ist dabei mehr als fünfmal parameter‑effizienter.
Ein abschließender Trigger‑Sensitivity‑Test liefert qualitative Belege dafür, dass die selbstreflektierende Mechanik von EchoLSTM ein robusteres Gedächtnissystem schafft. Diese Fortschritte zeigen, dass die Kombination aus Output‑Conditioned Gating und Attention neue Wege für effiziente, langfristig stabile neuronale Netzwerke eröffnet.