HiCL: Hippocampal‑Inspired Continual Learning reduziert katastrophales Vergessen
Die neueste Veröffentlichung auf arXiv (2508.16651v1) stellt HiCL vor – ein innovatives, hippocampal‑inspiriertes Dual‑Memory‑Modell, das das Problem des katastrophalen Vergessens in kontinuierlichen Lernumgebungen adressiert. Durch die Kombination biologisch fundierter Mechanismen mit mathematisch fundierten Algorithmen bietet HiCL einen vielversprechenden Ansatz für das effiziente Lernen mehrerer Aufgaben hintereinander.
HiCL nutzt zunächst eine grid‑cell‑ähnliche Schicht, um Eingaben zu kodieren, bevor ein sparsames Pattern‑Separation‑Modul, inspiriert vom Dentate Gyrus, die Daten mit einer Top‑k‑Sparsity verarbeitet. Die episodischen Erinnerungen werden in einem CA3‑ähnlichen Autoassociative‑Speicher gehalten, während die Aufgaben‑spezifische Verarbeitung über einen DG‑gated Mixture‑of‑Experts‑Mechanismus gesteuert wird. Dieser Mechanismus leitet die Eingaben dynamisch an Experten weiter, basierend auf der Kosinus‑Ähnlichkeit zwischen den normalisierten sparsamen DG‑Repräsentationen und online berechneten Aufgaben‑Prototypen.
Ein weiteres Highlight ist die Integration von Elastic Weight Consolidation, gewichtet durch die Ähnlichkeit zwischen Aufgaben, sowie ein priorisiertes Replay‑System, das wichtige vergangene Muster verstärkt. Die Kombination dieser Techniken führt zu einer signifikanten Reduktion von Aufgaben‑Interferenzen und erzielt nahezu erstklassige Ergebnisse auf Standard‑Benchmarks für kontinuierliches Lernen – und das bei deutlich geringeren Rechenkosten.