Forschung arXiv – cs.LG

Neues Verfahren zur Erkennung von Out-of-Distribution-Beispielen in Graphen

In vielen praktischen Anwendungen treffen Trainings- und Testdaten auf unterschiedliche Verteilungen, was tiefen neuronalen Netzwerken (DNNs) erhebliche Sicherheitsrisiken bereitet. Um diesen Herausforderungen zu begegn…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In vielen praktischen Anwendungen treffen Trainings- und Testdaten auf unterschiedliche Verteilungen, was tiefen neuronalen Netzwerken (DNNs) erhebliche Sicherheitsrisik…
  • Um diesen Herausforderungen zu begegnen, sind Techniken zur Erkennung von Out-of-Distribution (OOD)-Beispielen unverzichtbar, die bei der Inferenz sofort Alarm schlagen…
  • Aktuelle graphbasierte OOD-Methoden bauen meist auf end-to-end Graph Neural Networks (GNNs) auf, die feine In-Distribution (ID)-Muster aus mehreren Perspektiven extrahie…

In vielen praktischen Anwendungen treffen Trainings- und Testdaten auf unterschiedliche Verteilungen, was tiefen neuronalen Netzwerken (DNNs) erhebliche Sicherheitsrisiken bereitet. Um diesen Herausforderungen zu begegnen, sind Techniken zur Erkennung von Out-of-Distribution (OOD)-Beispielen unverzichtbar, die bei der Inferenz sofort Alarm schlagen können.

Aktuelle graphbasierte OOD-Methoden bauen meist auf end-to-end Graph Neural Networks (GNNs) auf, die feine In-Distribution (ID)-Muster aus mehreren Perspektiven extrahieren. Da jedoch während des Trainings keine OOD-Daten vorhanden sind, fehlt es an expliziten Supervisionssignalen, was die Leistung dieser Encoder oft einschränkt.

Die neue Methode „Disentangled Graph Prompting“ (DGP) nutzt ein vortrainiertes GNN als Encoder und ergänzt es durch ein Prompting-Paradigma. Dabei werden zwei Prompt-Generatoren entwickelt, die jeweils klassen­spezifische bzw. klassen­agnostische Prompt‑Graphen erzeugen, indem sie die Kantengewichte des Eingangsgraphen anpassen. Zusätzlich werden gezielte Verlustfunktionen eingesetzt, um die Generatoren zu trainieren und triviale Lösungen zu verhindern.

In umfangreichen Experimenten auf zehn unterschiedlichen Datensätzen konnte DGP die beste Basislinie um 3,63 % in Bezug auf die AUC steigern. Ablationsstudien und Hyperparameteranalysen bestätigen die Wirksamkeit des Ansatzes und zeigen, dass die Trennung der Prompt‑Graphen entscheidend für die Leistung ist.

Der komplette Code ist frei verfügbar unter https://github.com/BUPT-GAMMA/DGP.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Out-of-Distribution
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Graph Neural Network
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Prompting
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen