Forschungsleiter hinter ChatGPTs Mental‑Health‑Projekt verlässt OpenAI
Anzeige
OpenAI hat bekannt gegeben, dass einer seiner führenden Forschungsleiter, der maßgeblich an der Entwicklung von Sicherheitsmaßnahmen für ChatGPT beteiligt war, das Unternehmen verlässt. Der Experte war Teil des Model‑Policy‑Teams, das zentrale Aspekte der KI‑Sicherheit steuert, insbesondere die Art und Weise, wie ChatGPT auf Nutzer in Krisensituationen reagiert.
Seine Arbeit hat die Richtlinien für den Umgang mit psychischen Notfällen in der KI-Interaktion geprägt und damit einen wichtigen Beitrag zur sicheren Nutzung von Sprachmodellen geleistet. Die Abreise des Forschers markiert einen bedeutenden Wandel für OpenAI, das weiterhin darauf abzielt, verantwortungsvolle KI‑Technologien zu entwickeln.
Ähnliche Artikel
Ars Technica – AI
•
OpenAI schließt riesiges Rechenzentrum-Deal mit Amazon
MIT Technology Review – Artificial Intelligence
•
OpenAI stellt GPT‑5 vor: Schnell, klug, bereit für alle
Simon Willison – Blog
•
OpenAI integriert Skills – jetzt in ChatGPT und Codex CLI verfügbar
The Register – Headlines
•
Disney lizenziert über 200 Charaktere an OpenAI für Videos und Bilder
MarkTechPost
•
OpenAI stellt GPT‑5.2 vor: Neuer Allrounder für Agenten, Programmierung und Wissen
Quanta Magazine – Machine Learning
•
Kryptografen beweisen: KI-Schutzmaßnahmen bleiben immer lückenhaft