Forschung arXiv – cs.AI

Jackpot: Budgeted Rejection Sampling stabilisiert RL für große Sprachmodelle

Reinforcement‑Learning‑Ansätze für große Sprachmodelle (LLMs) sind bislang sehr kostenintensiv, weil die Rollouts selbst teuer sind. Durch die Trennung von Rollout‑Generierung und Policy‑Optimierung könnte die Effizienz…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Reinforcement‑Learning‑Ansätze für große Sprachmodelle (LLMs) sind bislang sehr kostenintensiv, weil die Rollouts selbst teuer sind.
  • Durch die Trennung von Rollout‑Generierung und Policy‑Optimierung könnte die Effizienz stark gesteigert werden – allerdings führt dies zu einem gravierenden Verteilungsk…
  • Das neue Framework Jackpot löst dieses Problem, indem es das Verfahren Optimal Budgeted Rejection Sampling (OBRS) einsetzt.

Reinforcement‑Learning‑Ansätze für große Sprachmodelle (LLMs) sind bislang sehr kostenintensiv, weil die Rollouts selbst teuer sind. Durch die Trennung von Rollout‑Generierung und Policy‑Optimierung könnte die Effizienz stark gesteigert werden – allerdings führt dies zu einem gravierenden Verteilungskonflikt, der das Lernen destabilisiert.

Das neue Framework Jackpot löst dieses Problem, indem es das Verfahren Optimal Budgeted Rejection Sampling (OBRS) einsetzt. OBRS reduziert gezielt die Diskrepanz zwischen dem Rollout‑Modell und der sich entwickelnden Policy, während ein einheitliches Trainingsziel beide Modelle gleichzeitig aktualisiert.

Dank einer effizienten Systemimplementierung, die Top‑k‑Wahrscheinlichkeiten nutzt und Bias‑Korrekturen auf Batch‑Ebene vornimmt, zeigt die theoretische Analyse, dass OBRS die Rollout‑Verteilung konsequent näher an die Zielverteilung bringt – und das unter einem kontrollierbaren Akzeptanzbudget. Praktische Tests mit dem Modell Qwen3‑8B‑Base demonstrieren, dass Jackpot die Trainingsstabilität deutlich verbessert und Leistungen erreicht, die mit on‑policy RL vergleichbar sind, bereits nach 300 Update‑Schritten bei einer Batch‑Größe von 64.

Die Ergebnisse deuten darauf hin, dass OBRS‑basierte Ausrichtung ein entscheidender Schritt in Richtung einer praktikablen und effektiven Trennung von Rollout‑Generierung und Policy‑Optimierung im RL für LLMs ist.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Reinforcement Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
große Sprachmodelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Jackpot
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen