Neues Deep Reinforcement Learning Modell verbessert semantische Erkundung von Agenten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Autonome Agenten, die sich in komplexen und unbekannten Umgebungen zurechtfinden sollen, benötigen mehr als nur Grundfunktionen wie Wahrnehmung und Bewegung. Sie brauchen höhere kognitive Fähigkeiten, um ihre Umgebung zu analysieren und gezielte Entscheidungen über Erkundungsstrategien zu treffen. Traditionelle Reinforcement‑Learning‑Ansätze stoßen dabei an ihre Grenzen, weil sie oft nicht effizient zwischen Exploration und semantischem Verständnis balancieren können.

In der vorliegenden Arbeit wird ein neuartiges Deep‑Reinforcement‑Learning‑System vorgestellt, das speziell für ressourcenschonende semantische Erkundung entwickelt wurde. Ein zentrales Merkmal ist die Einbindung eines Vision‑Language‑Modells (VLM), das als „Common‑Sense“-Quelle fungiert. Der Agent kann gezielt eine VLM‑Abfrage als eigene Aktion ausführen, wenn er externe Hilfe benötigt, wodurch unnötige Rechenressourcen eingespart werden.

Zusätzlich nutzt die Architektur ein Curriculum‑Learning‑Schema, das den Lernprozess in mehreren Schwierigkeitsstufen steuert. Dadurch wird ein robustes und stabiles Training gewährleistet. Die experimentellen Ergebnisse zeigen, dass der Agent die Entdeckungsrate von Objekten deutlich steigert und lernt, gezielt zu semantisch reichen Bereichen zu navigieren.

Die Kombination aus gezielter VLM‑Nutzung, ressourcenschonender Belohnungsstruktur und Curriculum‑Learning eröffnet neue Möglichkeiten für autonome Systeme, die in unbekannten Umgebungen nicht nur effizient, sondern auch intelligent handeln müssen.

Ähnliche Artikel