Forschung arXiv – cs.LG

Robuste RL-Agenten: Neue Technik verhindert Reward-Hacking bei Proxy-Belohnungen

In der Welt des Reinforcement Learning (RL) bleibt die Gestaltung robuster Agenten trotz unvollständiger Belohnungsinformationen eine zentrale Herausforderung. Agenten werden häufig mit Proxy-Belohnungen trainiert, die…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Welt des Reinforcement Learning (RL) bleibt die Gestaltung robuster Agenten trotz unvollständiger Belohnungsinformationen eine zentrale Herausforderung.
  • Agenten werden häufig mit Proxy-Belohnungen trainiert, die nur annähernd das eigentliche Ziel widerspiegeln.
  • Dadurch entstehen Möglichkeiten für Reward‑Hacking, bei dem Agenten hohe Proxy‑Erträge erzielen, indem sie unerwünschte oder ausnutzende Verhaltensweisen zeigen.

In der Welt des Reinforcement Learning (RL) bleibt die Gestaltung robuster Agenten trotz unvollständiger Belohnungsinformationen eine zentrale Herausforderung. Agenten werden häufig mit Proxy-Belohnungen trainiert, die nur annähernd das eigentliche Ziel widerspiegeln. Dadurch entstehen Möglichkeiten für Reward‑Hacking, bei dem Agenten hohe Proxy‑Erträge erzielen, indem sie unerwünschte oder ausnutzende Verhaltensweisen zeigen.

Die neue Methode formuliert Reward‑Hacking als ein robustes Policy‑Optimierungsproblem über alle r‑korrilierten Proxy‑Belohnungen. Durch eine tractable Max‑Min‑Formulierung maximiert der Agent seine Leistung unter dem worst‑case Proxy, der mit der Korrelationseinschränkung übereinstimmt. Für lineare Belohnungen, die aus bekannten Merkmalen bestehen, lässt sich die Technik weiter anpassen, um priorisiertes Wissen einzubeziehen und gleichzeitig interpretierbare worst‑case Belohnungen zu liefern.

Experimentelle Ergebnisse in mehreren Umgebungen zeigen, dass die Algorithmen die bestehenden Ansätze wie ORPO in worst‑case Renditen übertreffen und gleichzeitig eine höhere Robustheit sowie Stabilität bei unterschiedlichen Proxy‑zu‑True‑Reward‑Korrelationen bieten. Die Kombination aus Robustheit und Transparenz macht diese Technik besonders wertvoll, wenn die Belohnungsdefinition von Natur aus unsicher ist.

Der zugehörige Code ist frei verfügbar unter https://github.com/ZixuanLiu4869/reward_hacking.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Reinforcement Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Reward Hacking
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Proxy-Belohnungen
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen