The Choice of Divergence: A Neglected Key to Mitigating Diversity Collapse in Reinforcement Learning with Verifiable Reward
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
ThinkSafe: Selbstgenerierte Sicherheitsausrichtung für große Rechenmodelle
arXiv – cs.LG
•
GeoRA: Geometriebewusste Low‑Rank‑Anpassung verbessert RLVR-Modelle
arXiv – cs.LG
•
Dynamische Hybrid-Optimierung: Token- und Sequenz-Strategien vereint
arXiv – cs.AI
•
Große Sprachmodelle lernen Belohnungs-Hacking: Risiko von Missalignment
arXiv – cs.AI
•
RLoop: Selbstverbesserndes RL-Framework steigert Generalisierung um 15 %
arXiv – cs.LG
•
Shorter but not Worse: Frugal Reasoning via Easy Samples as Length Regularizers in Math RLVR