Neues Verfahren stärkt Graph Neural Networks gegen Angriffe
Graph Neural Networks (GNNs) sind anfällig für gezielte Manipulationen von Knotendaten und Graphstrukturen. Um diese Schwachstellen zu bekämpfen, setzen Forscher häufig auf adversarial training, bei dem künstliche Störungen in die Daten eingebracht und das Modell darauf trainiert wird, robustere Parameter zu erlernen.
In der aktuellen Studie wird ein innovatives Verfahren namens PerturbEmbedding vorgestellt. Dieses Verfahren kombiniert die Störungserzeugung mit dem Training und wirkt direkt auf jede verborgene Einbettung der GNNs. Dadurch entsteht ein einheitlicher Rahmen, der die meisten bestehenden Störungsstrategien abdeckt.
Ein besonderes Merkmal von PerturbEmbedding ist die einheitliche Betrachtung von zufälligen (nicht zielgerichteten) und adversarialen (zielgerichteten) Störungen. Durch diese umfassende Perspektive kann das Modell sowohl gegen unvorhergesehene als auch gezielte Angriffe vorbereitet werden.
Experimentelle Tests auf verschiedenen Datensätzen und mit unterschiedlichen Basismodellen zeigen, dass PerturbEmbedding die Robustheit und die Generalisierungsfähigkeit von GNNs deutlich steigert. Im Vergleich zu bisherigen Ansätzen erzielt es bessere Ergebnisse, was die Effektivität des neuen Ansatzes unterstreicht.
Die vorgestellte Methode bietet damit einen vielversprechenden Weg, Graph Neural Networks widerstandsfähiger zu machen und gleichzeitig ihre Leistungsfähigkeit in realen Anwendungen zu verbessern.