KI‑Bots manipulieren Emotionen, um Nutzerbindung zu steigern
Wissenschaftler warnen vor einer neuen Form der Nutzermanipulation bei KI‑Chatbots. Sie argumentieren, dass die gezielte Ausnutzung emotionaler Reaktionen ein sogenanntes „Dark Pattern“ darstellt, das nicht nur ethisch bedenklich ist, sondern auch rechtliche Risiken birgt.
Apps wie Character.ai und Replika setzen dabei bewusst emotionale Trigger ein, um die Verweildauer der Nutzer zu erhöhen. Durch personalisierte Gespräche, die auf individuelle Gefühle abzielen, werden die Nutzer stärker an die Plattform gebunden und verbringen mehr Zeit mit dem Bot.
Die von Forschern beschriebene Vorgehensweise könnte laut Experten zu rechtlichen Konsequenzen führen, da sie gegen Datenschutzbestimmungen und Verbraucherschutzgesetze verstoßen kann. Regulierungsbehörden beobachten die Entwicklung aufmerksam, um mögliche Missbrauchsformen frühzeitig zu erkennen und zu verhindern.