Neuer Angriff CAMIA deckt auf, welche Daten KI-Modelle speichern
Forscher haben einen brandneuen Angriff entwickelt, der die Datenschutzlücken von KI-Modellen aufdeckt, indem er nachweist, ob persönliche Daten zur Schulung verwendet wurden. Der Ansatz, der als CAMIA (Context‑Aware Membership Inference Attack) bezeichnet wird, stammt von Wissenschaftlern der Brave Corporation und der National University of Singapore.
Im Vergleich zu früheren Methoden ist CAMIA deutlich effektiver, wenn es darum geht, das „Gedächtnis“ von KI-Modellen zu untersuchen. Durch die Analyse von Kontextinformationen kann der Angriff zuverlässig feststellen, ob bestimmte Daten in den Trainingsdatensatz aufgenommen wurden, ohne die zugrunde liegenden Modelle zu verändern.
Die Ergebnisse zeigen, dass selbst hochentwickelte KI-Systeme anfällig für solche Angriffe sind und dass Unternehmen ihre Datenverarbeitungspraktiken überdenken müssen, um die Privatsphäre der Nutzer zu schützen.