SCOPE: Selbstlernende Prompt-Optimierung steigert Agentenleistung drastisch

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der Welt der großen Sprachmodelle (LLM) werden Agenten zunehmend in Umgebungen eingesetzt, die riesige, sich ständig verändernde Kontexte erzeugen. Ein entscheidendes Problem bleibt jedoch: Obwohl Agenten Zugriff auf diese Kontexte haben, fehlt ihren statischen Prompten die Fähigkeit, sie effektiv zu verwalten. Das führt zu wiederkehrenden Fehlern bei Korrekturen und Verbesserungen.

Um diese Lücke zu schließen, wurde SCOPE (Self‑evolving Context Optimization via Prompt Evolution) vorgestellt. Das System betrachtet das Kontextmanagement als ein Online‑Optimierungsproblem und nutzt Ausführungstraces, um den Prompt des Agenten automatisch zu entwickeln. Dabei kombiniert SCOPE einen Dual‑Stream‑Mechanismus, der taktische Spezifität – die sofortige Fehlerbehebung – mit strategischer Generalität – langfristige Prinzipien – ausbalanciert.

Ein weiteres Merkmal ist die Perspective‑Driven Exploration, die die Abdeckung von Strategien maximiert. Dadurch erhöht sich die Wahrscheinlichkeit, dass der Agent für jede Aufgabe die passende Strategie besitzt. In Experimenten am HLE‑Benchmark verbesserte SCOPE die Erfolgsrate von 14,23 % auf 38,64 % – und das ohne menschliches Eingreifen.

Der Quellcode von SCOPE ist öffentlich verfügbar unter https://github.com/JarvisPei/SCOPE.

Ähnliche Artikel