PRISM: Mid-Training steigert LLM-Leistung um bis zu 40 Punkte in Mathematik
Die neueste Veröffentlichung auf arXiv, PRISM, beleuchtet die Wirkung von Mid‑Training bei großen Sprachmodellen. Durch kontrollierte Experimente mit sieben Basismodellen aus vier Familien und zwei Architekturen zeigte…
- Die neueste Veröffentlichung auf arXiv, PRISM, beleuchtet die Wirkung von Mid‑Training bei großen Sprachmodellen.
- Durch kontrollierte Experimente mit sieben Basismodellen aus vier Familien und zwei Architekturen zeigte PRISM, dass ein Mid‑Training mit rund 27 Mio.
- hochwertigen Tokens die Leistung in Mathematik um bis zu 40 Punkte, in Code um bis zu 12 Punkte und in wissenschaftlichen Aufgaben um bis zu 13 Punkte steigert, ohne die…
Die neueste Veröffentlichung auf arXiv, PRISM, beleuchtet die Wirkung von Mid‑Training bei großen Sprachmodellen. Durch kontrollierte Experimente mit sieben Basismodellen aus vier Familien und zwei Architekturen zeigte PRISM, dass ein Mid‑Training mit rund 27 Mio. hochwertigen Tokens die Leistung in Mathematik um bis zu 40 Punkte, in Code um bis zu 12 Punkte und in wissenschaftlichen Aufgaben um bis zu 13 Punkte steigert, ohne die allgemeine Performance zu beeinträchtigen.
Der komplette PRISM‑zu‑RL‑Pipeline-Ansatz erhöht den Makro‑Durchschnitt über sechs Reasoning‑Benchmarks von unter 12 auf 29–42 Punkte – ein 3‑ bis 4‑facher Anstieg. Im Gegensatz dazu liefert Reinforcement Learning, wenn es direkt auf die Basismodelle angewendet wird, kaum Verbesserungen, mit AIME‑Scores nahe Null.
Die Zusammensetzung der Daten spielt die entscheidende Rolle: Mid‑Training mit wissenschaftlichen Daten führt zu GPQA‑Diamond‑Gewinnen von 17 bis 28 Punkten während der RL‑Phase, während Änderungen am RL‑Mix weniger als 2 Punkte ausmachen.
Mechanistisch verändert Mid‑Training mehr als 90 % der Modellgewichte, während RL nur etwa 5 % der Parameter feinjustiert. Eine CKA‑Analyse zeigt, dass RL die durch Mid‑Training geprägte Repräsentationsgeometrie (CKA > 0,998) über alle Architekturen hinweg beibehält. RL wendet dieselben Gewichtungsänderungen an, funktioniert aber nur bei Mid‑Trainierten Modellen – ein Hinweis darauf, dass Mid‑Training die Modelle in eine lernfähige Konfiguration bringt.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.