LLM‑Weltmodell revolutioniert Baseball: 64 % Genauigkeit bei Pitchvorhersagen
In einer neuen Veröffentlichung auf arXiv (2602.07030v1) wird ein neuartiges Modell vorgestellt, das klassische Sabermetrics mit modernen Sprachmodellen kombiniert. Sabermetrics hat seit Jahrzehnten die Analyse von Baseball‑Statistiken geprägt, jedoch fehlt bislang ein generatives Modell, das den Ablauf eines Spiels pitch‑by‑pitch simulieren kann. Das neue Konzept füllt diese Lücke, indem es Spiele als lange, autoregressive Ereignisse behandelt.
Das Team hat ein großes Sprachmodell – ein Large Language Model (LLM) – auf mehr als zehn Jahren Tracking‑Daten der Major League Baseball (MLB) trainiert. Die Daten umfassen über sieben Millionen Pitch‑Sequenzen und etwa drei Milliarden Tokens. Durch kontinuierliches Pre‑Training entsteht ein „Weltmodell“, das in der Lage ist, mehrere Aspekte eines Spiels gleichzeitig vorherzusagen, ohne dass separate Modelle für einzelne Vorhersagen nötig sind.
Die Evaluation zeigt beeindruckende Ergebnisse: Das Modell trifft bei 64 % der nächsten Pitches innerhalb einer Plate Appearance die richtige Vorhersage und erkennt 78 % der Schwungentscheidungen des Schlagmanns korrekt. Diese Leistungen übertreffen die bisherigen neuronalen Baselines sowohl bei regulären Saison‑Daten als auch bei Postseason‑Spielen, was die Wirksamkeit von LLMs als generative Weltmodelle im Sport unterstreicht.