Forschung arXiv – cs.LG

PRISM: Mid-Training steigert LLM-Leistung um bis zu 40 Punkte in Mathematik

Die neueste Veröffentlichung auf arXiv, PRISM, beleuchtet die Wirkung von Mid‑Training bei großen Sprachmodellen. Durch kontrollierte Experimente mit sieben Basismodellen aus vier Familien und zwei Architekturen zeigte…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die neueste Veröffentlichung auf arXiv, PRISM, beleuchtet die Wirkung von Mid‑Training bei großen Sprachmodellen.
  • Durch kontrollierte Experimente mit sieben Basismodellen aus vier Familien und zwei Architekturen zeigte PRISM, dass ein Mid‑Training mit rund 27 Mio.
  • hochwertigen Tokens die Leistung in Mathematik um bis zu 40 Punkte, in Code um bis zu 12 Punkte und in wissenschaftlichen Aufgaben um bis zu 13 Punkte steigert, ohne die…

Die neueste Veröffentlichung auf arXiv, PRISM, beleuchtet die Wirkung von Mid‑Training bei großen Sprachmodellen. Durch kontrollierte Experimente mit sieben Basismodellen aus vier Familien und zwei Architekturen zeigte PRISM, dass ein Mid‑Training mit rund 27 Mio. hochwertigen Tokens die Leistung in Mathematik um bis zu 40 Punkte, in Code um bis zu 12 Punkte und in wissenschaftlichen Aufgaben um bis zu 13 Punkte steigert, ohne die allgemeine Performance zu beeinträchtigen.

Der komplette PRISM‑zu‑RL‑Pipeline-Ansatz erhöht den Makro‑Durchschnitt über sechs Reasoning‑Benchmarks von unter 12 auf 29–42 Punkte – ein 3‑ bis 4‑facher Anstieg. Im Gegensatz dazu liefert Reinforcement Learning, wenn es direkt auf die Basismodelle angewendet wird, kaum Verbesserungen, mit AIME‑Scores nahe Null.

Die Zusammensetzung der Daten spielt die entscheidende Rolle: Mid‑Training mit wissenschaftlichen Daten führt zu GPQA‑Diamond‑Gewinnen von 17 bis 28 Punkten während der RL‑Phase, während Änderungen am RL‑Mix weniger als 2 Punkte ausmachen.

Mechanistisch verändert Mid‑Training mehr als 90 % der Modellgewichte, während RL nur etwa 5 % der Parameter feinjustiert. Eine CKA‑Analyse zeigt, dass RL die durch Mid‑Training geprägte Repräsentationsgeometrie (CKA > 0,998) über alle Architekturen hinweg beibehält. RL wendet dieselben Gewichtungsänderungen an, funktioniert aber nur bei Mid‑Trainierten Modellen – ein Hinweis darauf, dass Mid‑Training die Modelle in eine lernfähige Konfiguration bringt.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

PRISM
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Mid-Training
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Reinforcement Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen