DeepSeek: Das Flaggschiffmodell wurde nicht für 294.000 $ trainiert
Der neue R1‑Forschungsbericht von DeepSeek, der in der renommierten Fachzeitschrift Nature veröffentlicht wurde, gibt einen detaillierten Einblick in die Rechenressourcen, die für das Training des Modells erforderlich waren. Dabei wird deutlich, dass die im Bericht angegebenen Kosten die 2,79 Millionen GPU‑Stunden, die die Grundlage des Modells bilden, nicht berücksichtigen.
Diese Diskrepanz hat zu Missverständnissen geführt: Viele haben die tatsächlichen Ausgaben für die Entwicklung des Modells überschätzt. Der Bericht klärt auf, dass die eigentlichen Kosten deutlich niedriger sind, wenn man die nicht berücksichtigten GPU‑Stunden einbezieht.
DeepSeek betont, dass die Transparenz über die benötigten Rechenressourcen ein wichtiger Schritt ist, um die Effizienz und Nachhaltigkeit von KI‑Entwicklungen besser zu verstehen und zu fördern.