OpenAI präsentiert GPT‑5.4 mini und nano – günstiger als Google Gemini
OpenAI hat heute die neuen Modelle GPT‑5.4 mini und GPT‑5.4 nano vorgestellt, die direkt auf dem bereits vor zwei Wochen veröffentlichten GPT‑5.4 aufbauen. Die beiden Varianten sollen die Leistungsfähigkeit der vorherig…
- OpenAI hat heute die neuen Modelle GPT‑5.4 mini und GPT‑5.4 nano vorgestellt, die direkt auf dem bereits vor zwei Wochen veröffentlichten GPT‑5.4 aufbauen.
- Die beiden Varianten sollen die Leistungsfähigkeit der vorherigen Mini-Version deutlich steigern und gleichzeitig die Rechenzeit halbieren.
- Nach den selbstberichteten Benchmarks von OpenAI übertrifft das neue GPT‑5.4‑nano das frühere GPT‑5‑mini, wenn es mit maximaler Rechenleistung betrieben wird.
OpenAI hat heute die neuen Modelle GPT‑5.4 mini und GPT‑5.4 nano vorgestellt, die direkt auf dem bereits vor zwei Wochen veröffentlichten GPT‑5.4 aufbauen. Die beiden Varianten sollen die Leistungsfähigkeit der vorherigen Mini-Version deutlich steigern und gleichzeitig die Rechenzeit halbieren.
Nach den selbstberichteten Benchmarks von OpenAI übertrifft das neue GPT‑5.4‑nano das frühere GPT‑5‑mini, wenn es mit maximaler Rechenleistung betrieben wird. Gleichzeitig ist das Mini-Modell doppelt so schnell wie sein Vorgänger. Diese Verbesserungen kommen zu äußerst günstigen Preisen, die selbst die Konkurrenzmodelle von Google und Anthropic unterbieten.
Die Preisstruktur sieht wie folgt aus: Für GPT‑5.4‑nano betragen die Kosten 0,20 USD pro Eingabe und 0,02 USD pro Ausgabe, was insgesamt 1,25 USD pro Anfrage entspricht. Das GPT‑5.4‑mini kostet 0,75 USD pro Eingabe und 0,075 USD pro Ausgabe, also 4,50 USD pro Anfrage. Im Vergleich dazu kostet das Basis‑GPT‑5.4 2,50 USD pro Eingabe und 0,25 USD pro Ausgabe, also 15,00 USD pro Anfrage. Diese Preise liegen deutlich unter denen von Modellen wie Claude Opus 4.6, Gemini 3.1 Pro und Gemini 3.1 Flash‑Lite.
Um die Leistungsfähigkeit praktisch zu demonstrieren, wurde ein Foto aus der John M. Mossman Lock Collection mit GPT‑5.4‑nano beschrieben. Das Modell erzeugte eine detaillierte Bildbeschreibung, die 2 751 Eingabetoken und 112 Ausgabetoken benötigte – ein Kostenaufwand von lediglich 0,069 Cent, also weniger als ein Zehntel eines Cents.
Mit diesen neuen Modellen bietet OpenAI eine leistungsstarke, kostengünstige Alternative für Bildbeschreibungen und andere textbasierte Anwendungen, die sowohl Geschwindigkeit als auch Genauigkeit in den Vordergrund stellen.
Welche Linse du auf diese Meldung legen solltest
OpenAI ist einer der wichtigsten Taktgeber fuer KI-Produkte, Modellstarts und API-Oekosysteme.
Trenne bei OpenAI-News immer zwischen Modellleistung, Distribution ueber ChatGPT und den Folgen fuer Entwickler im API-Stack.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Trenne bei OpenAI-News immer zwischen Modellleistung, Distribution ueber ChatGPT und den Folgen fuer Entwickler im API-Stack.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.