Selbstentwickelnde Agenten: neues lebenslanges Lern-Framework & Benchmark
Die Forschung im Bereich der künstlichen Intelligenz bewegt sich zunehmend von statischen Aufgaben hin zu offenen Agenten, die kontinuierlich aus ihrer Umgebung lernen. In einer aktuellen Veröffentlichung wird das Konzept des Experience‑Driven Lifelong Learning (ELL) vorgestellt, das genau diese Art von selbstentwickelnden Agenten ermöglicht.
ELL basiert auf vier zentralen Prinzipien: Erstens die Erfahrungsexploration, bei der Agenten durch selbstmotivierte Interaktion mit dynamischen Umgebungen neue Erfahrungen sammeln. Zweitens die Langzeit‑Speicherung, die es den Agenten erlaubt, ihr Wissen – von persönlichen Erlebnissen bis hin zu domänenspezifischem Fachwissen – dauerhaft zu speichern und zu strukturieren. Drittens die Skill‑Lernphase, in der Agenten wiederkehrende Muster aus ihren Erfahrungen abstrahieren und daraus wiederverwendbare Fertigkeiten entwickeln, die sie aktiv verfeinern und auf neue Aufgaben übertragen. Viertens die Wissens‑Internalisierung, bei der explizite Erfahrungen in intuitive, „zweite Natur“ verwandelt werden.
Zur Evaluierung des Frameworks wurde das Benchmark‑Set StuLife entwickelt. Es simuliert den gesamten Studienverlauf eines Studenten – von der Einschreibung über akademische und persönliche Entwicklung bis hin zu Abschluss – in drei Hauptphasen und zehn detaillierten Unterszenarien. StuLife fokussiert auf drei Paradigmenwechsel: von passiv zu proaktiv, von Kontext zu Erinnerung und von Imitation zu eigenem Lernen. In dieser Umgebung müssen Agenten praktische Fertigkeiten erwerben, verfeinern und ihr Wissen nachhaltig festigen.
Die vorgestellte Kombination aus ELL und StuLife bietet Forschern ein robustes Werkzeug, um die Entwicklung von Agenten zu untersuchen, die sich kontinuierlich an neue Herausforderungen anpassen können. Damit wird ein wichtiger Schritt in Richtung einer echten, generellen künstlichen Intelligenz gemacht, die nicht nur Aufgaben löst, sondern aus jeder Interaktion lernt und wächst.