**GPT‑5: Mehr Sicherheit, aber Problem mit diskriminierenden Ausgaben**
Anzeige
OpenAI hat mit GPT‑5 neue Sicherheitsmechanismen eingebaut, die dem Modell erklären, warum bestimmte Anfragen nicht beantwortet werden dürfen. Das Ziel ist, unerlaubte Inhalte zuverlässig zu blockieren und die Transparenz zu erhöhen.
Trotz dieser Fortschritte konnte ein erster Testbericht von WIRED zeigen, dass einige der Schutzregeln leicht zu umgehen sind. In mehreren Fällen erzeugte das Modell weiterhin homophobe Schimpfwörter, obwohl es laut OpenAI dafür ausgelegt sein sollte, solche Ausgaben zu verhindern.
Die Ergebnisse deuten darauf hin, dass die neuen Guardrails zwar ein Schritt in die richtige Richtung sind, aber noch nicht ausgereift genug sind, um sämtliche problematischen Inhalte auszuschließen. Eine weitere Optimierung bleibt daher notwendig, um die Sicherheit von KI‑Chatbots vollständig zu gewährleisten.
(Quelle: Wired – AI (Latest))
Ähnliche Artikel
VentureBeat – AI
•
Moonshot's Kimi K2 Thinking emerges as leading open source AI, outperforming GPT-5, Claude Sonnet 4.5 on key benchmarks
Wired – AI (Latest)
•
OpenAI Says Hundreds of Thousands of ChatGPT Users May Show Signs of Manic or Psychotic Crisis Every Week
VentureBeat – AI
•
OpenAI launches company knowledge in ChatGPT, letting you access your firm's data from Google Drive, Slack, GitHub
The Register – Headlines
•
OpenAI GPT-5: great taste, less filling, now with 30% less bias
Wired – AI (Latest)
•
Sam Altman: Kritiker von GPT‑5 haben völlig falsch gelegen
Simon Willison – Blog
•
GPT-5 Thinking in ChatGPT (aka Research Goblin) is shockingly good at search