Neue Datenschutzrisiken bei großen Sprachmodellen: Mehr als nur Datenlecks
Große Sprachmodelle (LLMs) haben in den letzten Jahren enorme Fortschritte in der Sprachverarbeitung, im logischen Denken und in der autonomen Entscheidungsfindung erzielt. Gleichzeitig eröffnen sie jedoch neue Gefahren für den Datenschutz, die weit über die bekannten Risiken während des Trainings hinausgehen.
Während die Forschung bisher vor allem darauf abzielte, Datenlecks während der Modellbildung zu verhindern, wird nun deutlich, dass die eigentliche Nutzung von LLMs in alltäglichen Anwendungen und ihre potenzielle „Waffenbildung“ neue Schwachstellen schafft. Diese Schwachstellen ermöglichen sowohl unbeabsichtigte Datenexfiltration als auch gezielte Angriffe, bei denen Angreifer systematisch sensible Informationen aus LLM‑gestützten Systemen herausfiltern.
Die Autoren betonen, dass Angreifer mit diesen Systemen groß angelegte, raffinierte Datenschutzangriffe durchführen können, die nicht nur die Privatsphäre einzelner Personen, sondern auch finanzielle Sicherheit und gesellschaftliches Vertrauen gefährden. Sie fordern die Forschungsgemeinschaft auf, den Fokus zu erweitern und neue Verteidigungsmechanismen zu entwickeln, die den sich wandelnden Bedrohungen durch immer leistungsfähigere LLMs und LLM‑basierte Anwendungen gerecht werden.