AR-basierte Ferninteraktion beschleunigt lernende, zügige Robotik

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues Forschungsprojekt aus dem Bereich der Robotik zeigt, wie Augmented‑Reality‑basierte Ferninteraktionen die Skalierbarkeit von Lernalgorithmen für Greifarme verbessern können. Durch die Kombination von Expertendemonstrationen, die über AR gesammelt werden, und einem zweiphasigen Lernansatz, der zunächst mit Behavior‑Cloning (BC) vortrainiert und anschließend mit kontrastivem Reinforcement Learning (RL) optimiert wird, erreicht das System eine deutlich höhere Effizienz und Robustheit.

Im ersten Schritt werden die von Menschen über AR erfassten Bewegungsdaten genutzt, um eine Grundpolicy mittels BC zu erstellen. Der zweite Schritt nutzt kontrastive Lerntechniken, um die Policy weiter zu verfeinern und die Lernrate zu beschleunigen. Ein spezieller Projection‑Head wird eingesetzt, um die Konvergenz zu beschleunigen, während ein ereignusgesteuertes, zusätzliches Belohnungssystem die Sicherheit der Interaktion erhöht.

Die Wirksamkeit des Ansatzes wurde sowohl in simulierten Umgebungen mit PyBullet als auch in realen Experimenten getestet. Im Vergleich zu klassischen Algorithmen wie Proximal Policy Optimization (PPO) und Soft Actor‑Critic (SAC) konnte das neue Verfahren die Inferenzzeit erheblich verkürzen und die Erfolgsrate bei Manipulationsaufgaben deutlich steigern. Eine Ablationsstudie zeigte, dass kontrastives RL die Gefahr des Policy‑Collapses verhindert.

Weitere Demonstrationen und Details zum Ansatz sind unter https://cyberyyc.github.io/ verfügbar.

Ähnliche Artikel