Neues interaktives Weltmodell verbessert Objektzentriertes Reinforcement Learning

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Forscher haben ein neues Modell namens Factored Interactive Object-Centric World Model (FIOC‑WM) vorgestellt, das die Interaktionen zwischen Objekten in Reinforcement‑Learning‑Agenten explizit erfasst. Durch die Kombination von objektzentrierten latenten Darstellungen und einer klar strukturierten Interaktionskarte kann das Modell die Dynamik einer Umgebung besser vorhersagen.

FIOC‑WM nutzt vortrainierte Bildencoder, um aus Pixeln sowohl einzelne Objekte als auch deren Wechselwirkungen zu extrahieren. Anschließend wird ein Weltmodell aufgebaut, das Aufgaben in wiederverwendbare Interaktionsbausteine zerlegt. Auf dieser Basis trainiert ein hierarchisches Steuerungssystem: ein höheres Level wählt die Art und Reihenfolge der Interaktionen, während ein niedrigeres Level diese ausführt.

In simulierten Robotik‑ und Embodied‑AI‑Tests zeigte das Modell eine deutlich höhere Sample‑Effizienz und bessere Generalisierung als herkömmliche Weltmodell‑Ansätze. Die Ergebnisse unterstreichen, dass das explizite, modulare Lernen von Objektinteraktionen entscheidend für robuste und übertragbare Steuerungsstrategien ist.

Ähnliche Artikel