Neuer Angriffstest enthüllt Datenschutzrisiken bei synthetischen Daten
Die Sicherstellung, dass synthetische Datensätze keine sensiblen Informationen aus den Trainingsdaten preisgeben, bleibt ein zentrales Problem in der KI-Forschung. Aktuelle Prüfverfahren beruhen häufig auf vereinfachenden Annahmen und liefern nur begrenzte Einblicke in die tatsächliche Privatsphäre‑Exposition.
In der aktuellen Studie wird ein neuer Ansatz namens Generative Likelihood Ratio Attack (Gen‑LRA) vorgestellt. Gen‑LRA ist ein sogenanntes No‑Box-Membership‑Inference‑Attack-Verfahren, das ohne Kenntnis des zugrunde liegenden Modells auskommt. Stattdessen nutzt es die Beobachtung, dass tabellarische Generative Modelle in bestimmten Bereichen der Trainingsverteilung stark überanpassen. Durch die Bewertung, wie stark ein Testbeobachtung die lokale Likelihood‑Schätzung eines Ersatzmodells beeinflusst, kann Gen‑LRA die Wahrscheinlichkeit bestimmen, ob ein bestimmter Datensatz im Trainingsmaterial enthalten war.
Die Autoren haben Gen‑LRA auf einem umfangreichen Benchmark aus verschiedenen Datensätzen, Modellarchitekturen und Angriffskonfigurationen getestet. Die Ergebnisse zeigen, dass Gen‑LRA in allen gemessenen Leistungsmetriken die bisherigen Methoden übertrifft. Damit demonstriert die Arbeit, dass das Überanpassungsverhalten generativer Modelle ein erhebliches Datenschutzrisiko darstellt und dass Gen‑LRA ein leistungsfähiges Werkzeug zur Überprüfung von synthetischen Datenreleases darstellt.