Chatbots wiederholen Putins Propaganda zur illegalen Ukraine‑Invasion
Anzeige
In einer aktuellen Untersuchung wurde festgestellt, dass etwa ein Fünftel der Antworten, die von populären Chatbots generiert werden, gefälschte Sichtweisen aus Moskows „Tier‑Medien“ enthält. Diese Bots, die auf großen Sprachmodellen basieren, verweisen in bis zu einem Viertel ihrer Antworten zum Ukraine‑Krieg auf Quellen, die von der russischen Regierung propagiert werden.
Die Ergebnisse werfen neue Fragen auf: Kann die Verbreitung solcher Inhalte durch KI die Bemühungen, Sanktionen gegen von Moskau unterstützte Medien durchzusetzen, untergraben? Experten warnen, dass die automatische Weitergabe von Propaganda die internationale Informationspolitik erheblich erschweren könnte.
Ähnliche Artikel
Wired – AI (Latest)
•
Lehrer nutzen KI, um Unterricht neu zu gestalten
Towards Data Science
•
KI muss nicht als Chatbot sein
MarkTechPost
•
Anthropic’s New Research Shows Claude can Detect Injected Concepts, but only in Controlled Layers
MIT Technology Review – Artificial Intelligence
•
Mustafa Suleyman: Kein Sexroboter – KI muss verantwortungsvoll gestaltet werden
ZDNet – Artificial Intelligence
•
KI liefert Nachrichten? Achtung – fast die Hälfte der Infos ist falsch
arXiv – cs.AI
•
PricingLogic: Evaluating LLMs Reasoning on Complex Tourism Pricing Tasks