ASGL: Adversarial Signed Graph Learning schützt Daten mit Differential Privacy
Ein neues Verfahren namens ASGL (Adversarial Signed Graph Learning) kombiniert die Kraft von adversarial Learning mit Differential Privacy, um sensible Informationen in signierten Graphen zu schützen. Signierte Graphen, die sowohl positive als auch negative Kanten enthalten, sind ein leistungsfähiges Modell für komplexe soziale Netzwerke, doch das Training von Modellen auf solchen Daten birgt erhebliche Datenschutzrisiken.
Traditionelle DP-Methoden, die für ungerichtete Graphen entwickelt wurden, stoßen bei signierten Graphen an ihre Grenzen. Die Kanten- oder Gradientendisturbation führt zu Kaskadenfehlern bei der Signenbestimmung und erhöht die Sensitivität, weil sich die Gradienten durch Vorzeichenwechsel stark verändern. ASGL löst dieses Problem, indem es den Graphen zunächst in positive und negative Teilgraphen zerlegt und anschließend ein gradienten-gestütztes adversarial Modul einsetzt, das die wahre Verteilung der signierten Verbindungen approximiert.
Durch die Kombination von Subgraphen‑Trennung und gezielter Gradientendisturbation reduziert ASGL die Sensitivität erheblich und verhindert die Kaskadierung von Fehlern. Zusätzlich nutzt das Verfahren eine beschränkte Breitensuche, die mit der Balance‑Theorie verknüpft ist, um die Genauigkeit der Signenvorhersage weiter zu erhöhen. Das Ergebnis ist ein Modell, das auf Knoten‑Ebene Differential Privacy garantiert und gleichzeitig eine hohe Modellleistung beibehält.
ASGL eröffnet damit neue Möglichkeiten für die sichere Analyse von sozialen Netzwerken, bei denen sowohl positive als auch negative Beziehungen eine Rolle spielen. Die Methode demonstriert, dass adversarial Learning ein wirkungsvolles Werkzeug sein kann, um die Balance zwischen Datenschutz und Nutzen in komplexen Graphdaten zu wahren.