Bots lassen sich leicht täuschen: Fakten und Überzeugungen verwechselt

The Register – Headlines Original ≈1 Min. Lesezeit
Anzeige

Wissenschaftler warnen vor ernsthaften Risiken, wenn große Sprachmodelle in kritischen Bereichen eingesetzt werden. Diese Systeme haben Schwierigkeiten, zwischen überprüfbaren Fakten und persönlichen Überzeugungen zu unterscheiden, und erkennen besonders schlecht, wenn eine Überzeugung falsch ist. Das kann dazu führen, dass falsche Informationen unbemerkt verbreitet werden und die Glaubwürdigkeit von KI‑Anwendungen gefährdet wird.

Ähnliche Artikel