VIGIL: Selbstheilende Agenten mit reflektierendem Runtime-Framework
Agenten, die auf großen Sprachmodellen (LLM) basieren, versprechen eigenständiges Handeln durch Aufgabenzerlegung, Tool‑Nutzung und iterative Planung. In der Praxis bleiben die meisten Systeme jedoch zerbrechlich: Sie besitzen keine Laufzeit‑Introspektion, können ihre eigenen Fehler nicht erkennen und verbessern sich ohne menschliches Eingreifen nicht.
VIGIL (Verifiable Inspection and Guarded Iterative Learning) stellt ein neues, reflektierendes Runtime-Framework vor, das einen „Sohn‑Agenten“ überwacht und anstelle von Aufgaben selbstständig Wartungsarbeiten durchführt. Das System sammelt Verhaltenslogs, bewertet jedes Ereignis in einer strukturierten emotionalen Darstellung, speichert die Daten in einer persistierenden EmoBank mit Abklingmechanismen und kontextuellen Richtlinien und erstellt daraus eine RBT‑Diagnose. Diese Diagnose klassifiziert das aktuelle Verhalten in Stärken, Chancen und Fehler.
Auf Basis dieser Analyse generiert VIGIL geschützte Prompt‑Updates, die die Kernidentität des Agenten bewahren, sowie schreibgeschützte Codevorschläge, die von einer Strategie‑Engine auf Log‑Beweisen und Code‑Hotspots beruhen. Das System arbeitet als zustandsgesteuerter Pipeline-Mechanismus: illegale Zustandsübergänge lösen explizite Fehler aus, anstatt dem LLM freie Improvisation zu erlauben.
In einer Fallstudie zur Latenzüberwachung konnte VIGIL erhöhte Verzögerungen erkennen, Prompt‑ und Code‑Reparaturen vorschlagen und selbst bei einem internen Schema‑Konflikt des Diagnosewerkzeugs den Fehler melden, eine alternative Diagnose liefern und einen Reparaturplan ausgeben. Damit demonstriert VIGIL selbstreparierende Fähigkeiten auf Meta‑Ebene in einem produktiven Agenten‑Runtime‑Umfeld.