Jackpot: Budgeted Rejection Sampling stabilisiert RL für große Sprachmodelle
Reinforcement‑Learning‑Ansätze für große Sprachmodelle (LLMs) sind bislang sehr kostenintensiv, weil die Rollouts selbst teuer sind. Durch die Trennung von Rollout‑Generierung und Policy‑Optimierung könnte die Effizienz…
- Reinforcement‑Learning‑Ansätze für große Sprachmodelle (LLMs) sind bislang sehr kostenintensiv, weil die Rollouts selbst teuer sind.
- Durch die Trennung von Rollout‑Generierung und Policy‑Optimierung könnte die Effizienz stark gesteigert werden – allerdings führt dies zu einem gravierenden Verteilungsk…
- Das neue Framework Jackpot löst dieses Problem, indem es das Verfahren Optimal Budgeted Rejection Sampling (OBRS) einsetzt.
Reinforcement‑Learning‑Ansätze für große Sprachmodelle (LLMs) sind bislang sehr kostenintensiv, weil die Rollouts selbst teuer sind. Durch die Trennung von Rollout‑Generierung und Policy‑Optimierung könnte die Effizienz stark gesteigert werden – allerdings führt dies zu einem gravierenden Verteilungskonflikt, der das Lernen destabilisiert.
Das neue Framework Jackpot löst dieses Problem, indem es das Verfahren Optimal Budgeted Rejection Sampling (OBRS) einsetzt. OBRS reduziert gezielt die Diskrepanz zwischen dem Rollout‑Modell und der sich entwickelnden Policy, während ein einheitliches Trainingsziel beide Modelle gleichzeitig aktualisiert.
Dank einer effizienten Systemimplementierung, die Top‑k‑Wahrscheinlichkeiten nutzt und Bias‑Korrekturen auf Batch‑Ebene vornimmt, zeigt die theoretische Analyse, dass OBRS die Rollout‑Verteilung konsequent näher an die Zielverteilung bringt – und das unter einem kontrollierbaren Akzeptanzbudget. Praktische Tests mit dem Modell Qwen3‑8B‑Base demonstrieren, dass Jackpot die Trainingsstabilität deutlich verbessert und Leistungen erreicht, die mit on‑policy RL vergleichbar sind, bereits nach 300 Update‑Schritten bei einer Batch‑Größe von 64.
Die Ergebnisse deuten darauf hin, dass OBRS‑basierte Ausrichtung ein entscheidender Schritt in Richtung einer praktikablen und effektiven Trennung von Rollout‑Generierung und Policy‑Optimierung im RL für LLMs ist.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.