Grok-4-Fast: 2M‑Token‑Kontext und Tool‑Use‑RL in einem Modell

MarkTechPost Original ≈1 Min. Lesezeit
Anzeige

xAI hat mit Grok-4-Fast einen kostenoptimierten Nachfolger von Grok-4 vorgestellt, der sowohl „Reasoning“- als auch „Non‑Reasoning“-Verhalten in einer einzigen Gewichtung vereint. Durch systemweite Prompt‑Kontrolle lässt sich das Modell flexibel für unterschiedliche Aufgaben einsetzen.

Die neue Architektur richtet sich an Anwendungen mit hohem Durchsatz, wie Suchanfragen, Programmieraufgaben und Frage‑Antwort‑Systeme. Mit einem Kontextfenster von 2 Million Tokens kann Grok-4-Fast lange Dokumente und komplexe Zusammenhänge verarbeiten.

Ein besonderes Merkmal ist die integrierte Tool‑Use‑Reinforcement‑Learning‑Komponente. Das Modell entscheidet selbstständig, wann es das Web durchsucht, Code ausführt oder externe Tools aufruft, um die bestmögliche Antwort zu liefern.

Ähnliche Artikel