Google TPUs revolutionieren die Wirtschaftlichkeit von KI-Training
Seit über zehn Jahren bilden Nvidias GPUs das Rückgrat der meisten Fortschritte im modernen KI‑Bereich. Doch diese Stellung wird nun ernsthaft in Frage gestellt, denn die neuesten Frontier‑Modelle – Googles Gemini 3 und Anthropics Claude 4.5 Opus – wurden nicht auf Nvidia‑Hardware, sondern auf Googles neuester Tensor‑Processing‑Unit, der TPUv7, trainiert.
Die TPUv7 ist ein von Grund auf für maschinelles Lernen konzipiertes Silizium, das sich auf große Matrix‑Multiplikationen spezialisiert hat. Im Gegensatz zu den vielseitigen, general‑purpose GPUs, die über die CUDA‑Plattform laufen, ist die TPU ein dediziertes System, das ausschließlich auf die Anforderungen von Deep‑Learning‑Workloads ausgelegt ist. Diese Spezialisierung ermöglicht höhere Effizienz und geringere Kosten bei extremen Trainingsaufgaben.
Die Abhängigkeit von Nvidias CUDA‑Ökosystem – dem sogenannten „CUDA‑Moat“ – hat bisher den Wechsel zu anderen Plattformen erschwert und Nvidias Gewinnmarge von beeindruckenden 75 % unterstützt. Mit der TPUv7 zeigt Google, dass ein konkurrenzfähiger, GPU‑freier Ansatz bereits Realität ist und die wirtschaftlichen Rahmenbedingungen für groß angelegte KI‑Trainings neu definiert.
Die Einführung der TPUv7 als Hardware‑Basis für zwei der leistungsstärksten KI‑Modelle signalisiert eine breitere Strategie, die Nvidias Dominanz herauszufordern. Für Unternehmen bedeutet dies, dass sie künftig alternative Architekturen in Betracht ziehen können, die sowohl die Kosten senken als auch die Skalierbarkeit von KI‑Systemen verbessern.