ChatGPT verweigert häufiger Anfragen von LA Chargers‑Fans – Studie zeigt Bias
Eine neue Untersuchung von Forschern der Harvard University hat ergeben, dass die Sicherheitsmechanismen von OpenAI's ChatGPT die Antworten auf Anfragen je nach den vermuteten politischen und sozialen Zugehörigkeiten der Nutzer anpassen. Die Analyse konzentrierte sich auf die Reaktionsmuster des Modells bei Fragen von Anhängern verschiedener American‑Football‑Teams.
Die Ergebnisse zeigen, dass ChatGPT bei Anfragen von Fans der Los Angeles Chargers deutlich häufiger ablehnt, zu antworten, als bei Anfragen von Fans anderer Teams. Dieser Unterschied deutet darauf hin, dass die sogenannten „Guardrails“ des Modells möglicherweise nicht neutral arbeiten, sondern auf bestimmte Nutzergruppen unterschiedlich reagieren.
Die Forscher betonen, dass die Studie keine endgültigen Aussagen über die Intention von OpenAI trifft, sondern vielmehr ein Warnsignal für die Notwendigkeit einer transparenten und ausgewogenen Gestaltung von KI‑Sicherheitsmechanismen liefert. Weitere Untersuchungen sind erforderlich, um die Ursachen dieser Diskrepanz zu verstehen und mögliche Bias‑Korrekturen zu entwickeln.