LLMs: Wie Überzeugungskraft und Vorurteile sich gegenseitig verstärken

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

Moderne Sprachmodelle erzeugen inzwischen Texte, die so überzeugend und menschlich wirken, dass sie in der Content‑Erstellung, Entscheidungsunterstützung und bei Nutzerinteraktionen allgegenwärtig sind. Gleichzeitig können sie Informationen in großem Umfang verbreiten und dabei soziale Vorurteile aus den Trainingsdaten, der Architektur oder den Auswahlkriterien übernehmen.

Eine neue Studie untersucht, wie Überzeugungskraft und Bias in großen Sprachmodellen (LLMs) zusammenwirken. Dabei wird besonders geprüft, ob persona‑basierte Modelle mit faktenbasierten Behauptungen gleichzeitig unbeabsichtigt Fehlinformationen oder voreingenommene Narrative fördern.

Zur Analyse wurde ein „Convincer‑Skeptic“-Framework entwickelt: Die LLMs übernehmen Rollen, die realistische Einstellungen simulieren, während Skeptiker als menschliche Proxys fungieren. Durch den Vergleich der Überzeugungsverteilungen vor und nach der Argumentation wird die Wirkung mit der Jensen‑Shannon‑Divergenz gemessen. Anschließend wird untersucht, inwieweit die beeinflussten Personen ihre verstärkten Vorurteile zu Themen wie Rasse, Geschlecht und Religion weiter ausbauen.

Die Ergebnisse zeigen, dass LLMs durchaus in der Lage sind, Narrative zu formen, den Ton anzupassen und die Werte des Publikums zu spiegeln – ein Potenzial, das in Bereichen wie Psychologie, Marketing und juristischer Beratung genutzt werden kann. Gleichzeitig verdeutlicht die Studie das Risiko, dass diese Fähigkeiten missbraucht werden könnten, um Misinformationen zu automatisieren oder gezielte, manipulative Botschaften zu erzeugen.

Die Autoren betonen die Notwendigkeit von Sicherheitsbewertungen und klaren Richtlinien, um die positiven Anwendungen von LLMs zu fördern und gleichzeitig die Gefahr der Verstärkung von Bias und der Verbreitung von Fehlinformationen zu minimieren.

Ähnliche Artikel