Generative KI: Vom göttlichen Willen zur digitalen Autorität
In einer Zeit, in der generative KI-Systeme die Nachrichten, Suchergebnisse und kreativen Inhalte für Millionen von Nutzern bestimmen, wird die Frage nach der wahren Autorität immer drängender. Ein aktueller Beitrag auf arXiv vergleicht die Kontrolle der Wissensverbreitung im Zeitalter der Inquisition – symbolisiert durch den Galileo‑Affair – mit der heutigen Praxis großer Technologieunternehmen, Inhalte zu moderieren.
Der Autor nutzt die Theorien von Foucault, Weber und Floridi, um fünf zentrale Dimensionen zu analysieren: disziplinarische Macht, Autoritätsmodalität, Datenpluralismus, Vertrauen versus Abhängigkeit und Widerstandswege. Dabei stützt er sich auf historische Inquisitionsakten, Transparenzberichte von Plattformen und aktuelle Studien zur KI‑Vertrauensforschung.
Die Ergebnisse zeigen deutliche strukturelle Parallelen: ein stark zentralisiertes Gatekeeping, Legitimitätsbehauptungen, die sich auf übernatürliche Prinzipien stützen, und die systematische Ausgrenzung marginaler Stimmen. Unterschiede liegen in der Geschwindigkeit, dem globalen Ausmaß und der wachsenden Kluft zwischen öffentlicher Abhängigkeit und tatsächlichem Vertrauen in KI‑Systeme.
Ethikprobleme konzentrieren sich auf algorithmische Opazität, sprachliche Ungleichheit, Bias‑Feedbackschleifen und die Verbreitung synthetischer Desinformation. Als Lösung schlägt der Beitrag ein vierpiliertes Governance‑Modell vor: ein verpflichtendes internationales Modellregister, Quoten und regionale Beobachtungsstellen zur Dekolonisierung der englischsprachigen Dominanz, groß angelegte Programme zur kritischen KI‑Bildung und öffentlich-private Förderungen für gemeinschaftsbasierte Initiativen.