Forschung arXiv – cs.LG

Evolution Strategies vs. GRPO: Gleiche Genauigkeit, unterschiedliche Geometrie bei LLM-Post-Training

In einer aktuellen Studie wurden die beiden populären Ansätze Evolution Strategies (ES) und Group Relative Policy Optimization (GRPO) im Kontext des Post-Trainings von großen Sprachmodellen (LLM) gegeneinander getestet…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In einer aktuellen Studie wurden die beiden populären Ansätze Evolution Strategies (ES) und Group Relative Policy Optimization (GRPO) im Kontext des Post-Trainings von g…
  • Die Forscher untersuchten vier Aufgaben in Einzel- und fortlaufenden Lernumgebungen und fanden heraus, dass ES die Genauigkeit von GRPO in Einzelaufgaben gleichsetzt ode…
  • Auch bei sequentiellem Lernen bleibt ES konkurrenzfähig, solange das Iterationsbudget begrenzt wird.

In einer aktuellen Studie wurden die beiden populären Ansätze Evolution Strategies (ES) und Group Relative Policy Optimization (GRPO) im Kontext des Post-Trainings von großen Sprachmodellen (LLM) gegeneinander getestet. Die Forscher untersuchten vier Aufgaben in Einzel- und fortlaufenden Lernumgebungen und fanden heraus, dass ES die Genauigkeit von GRPO in Einzelaufgaben gleichsetzt oder sogar übertrifft. Auch bei sequentiellem Lernen bleibt ES konkurrenzfähig, solange das Iterationsbudget begrenzt wird.

Interessanterweise führen die beiden Methoden zu sehr unterschiedlichen Modellupdates. ES verändert die Parameter deutlich stärker und erzeugt dabei einen breiteren KL-Divergenz‑Drift außerhalb der Zielaufgabe. GRPO hingegen setzt kleinere, lokalere Anpassungen um. Trotz dieser Unterschiede zeigen die beiden Verfahren eine lineare Verbindung ihrer Lösungen ohne Verlustbarriere, obwohl ihre Update-Richtungen nahezu orthogonal sind.

Die Autoren entwickelten eine analytische Theorie, die erklärt, wie ES große Off‑Task-Bewegungen in wenig informativen Richtungen akkumuliert und gleichzeitig genügend Fortschritt auf der eigentlichen Aufgabe erzielt, um die Genauigkeit von gradientenbasiertem Reinforcement Learning zu erreichen. Diese Erkenntnisse verdeutlichen, dass gradientenfreie und gradientenbasierte Feinabstimmungen gleichermaßen genaue, aber geometrisch unterschiedliche Lösungen liefern – ein Ergebnis mit wichtigen Implikationen für das Vergessen und die Wissensbewahrung.

Der komplette Quellcode der Studie ist öffentlich zugänglich unter https://github.com/Bhoy1/ESvsGRPO.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Evolution Strategies
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Group Relative Policy Optimization
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Post-Training
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen