RPMS steigert LLM-Agenten in eingebetteten Umgebungen durch Regeln
In der Forschung zu großen Sprachmodellen (LLM) zeigen neue Ergebnisse, dass Agenten in geschlossenen, physischen Umgebungen häufig scheitern, weil ihre Aktionen strenge Vorbedingungen erfüllen müssen. Diese Bedingungen…
- In der Forschung zu großen Sprachmodellen (LLM) zeigen neue Ergebnisse, dass Agenten in geschlossenen, physischen Umgebungen häufig scheitern, weil ihre Aktionen strenge…
- Diese Bedingungen betreffen Standort, Inventar und Behälterzustände, und das Feedback bei Fehlern ist selten.
- Die Studie identifiziert zwei zusammenhängende Fehlerquellen: die Erzeugung ungültiger Aktionen und das Abweichen vom erwarteten Zustandsverlauf, die sich gegenseitig ve…
In der Forschung zu großen Sprachmodellen (LLM) zeigen neue Ergebnisse, dass Agenten in geschlossenen, physischen Umgebungen häufig scheitern, weil ihre Aktionen strenge Vorbedingungen erfüllen müssen. Diese Bedingungen betreffen Standort, Inventar und Behälterzustände, und das Feedback bei Fehlern ist selten. Die Studie identifiziert zwei zusammenhängende Fehlerquellen: die Erzeugung ungültiger Aktionen und das Abweichen vom erwarteten Zustandsverlauf, die sich gegenseitig verstärken.
Um dieses Problem zu lösen, wurde RPMS entwickelt – eine Architektur, die Konflikte managt, indem sie die Durchführbarkeit von Aktionen durch regelbasierte Abrufe prüft, die Anwendbarkeit des Gedächtnisses mittels eines leichten Glaubenszustands steuert und Konflikte zwischen den beiden Quellen durch regelbasierte Priorisierung löst. Auf der Plattform ALFWorld erreichte RPMS mit dem Modell Llama 3.1 8B einen Erfolgswert von 59,7 % bei einer einzigen Durchlaufchance, was einen Anstieg von 23,9 pp gegenüber dem Basismodell bedeutet. Mit Claude Sonnet 4.5 stieg der Erfolg auf 98,5 %, ein Plus von 11,9 pp.
Besonders hervorzuheben ist, dass die regelbasierte Abruffunktion allein einen signifikanten Beitrag von 14,9 pp leistet, was sie zum wichtigsten Erfolgsfaktor macht. Die Studie zeigt zudem, dass episodisches Gedächtnis nur dann vorteilhaft ist, wenn es durch den aktuellen Zustand gefiltert und durch explizite Aktionsregeln eingeschränkt wird. In einer Transferstudie auf ScienceWorld erzielte RPMS mit GPT‑4 konsistente Verbesserungen, wobei der durchschnittliche Score 54,0 betrug, verglichen mit 44,9 beim ReAct-Baseline.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.