Neues Verfahren zur Erkennung von Out-of-Distribution-Beispielen in Graphen
In vielen praktischen Anwendungen treffen Trainings- und Testdaten auf unterschiedliche Verteilungen, was tiefen neuronalen Netzwerken (DNNs) erhebliche Sicherheitsrisiken bereitet. Um diesen Herausforderungen zu begegn…
- In vielen praktischen Anwendungen treffen Trainings- und Testdaten auf unterschiedliche Verteilungen, was tiefen neuronalen Netzwerken (DNNs) erhebliche Sicherheitsrisik…
- Um diesen Herausforderungen zu begegnen, sind Techniken zur Erkennung von Out-of-Distribution (OOD)-Beispielen unverzichtbar, die bei der Inferenz sofort Alarm schlagen…
- Aktuelle graphbasierte OOD-Methoden bauen meist auf end-to-end Graph Neural Networks (GNNs) auf, die feine In-Distribution (ID)-Muster aus mehreren Perspektiven extrahie…
In vielen praktischen Anwendungen treffen Trainings- und Testdaten auf unterschiedliche Verteilungen, was tiefen neuronalen Netzwerken (DNNs) erhebliche Sicherheitsrisiken bereitet. Um diesen Herausforderungen zu begegnen, sind Techniken zur Erkennung von Out-of-Distribution (OOD)-Beispielen unverzichtbar, die bei der Inferenz sofort Alarm schlagen können.
Aktuelle graphbasierte OOD-Methoden bauen meist auf end-to-end Graph Neural Networks (GNNs) auf, die feine In-Distribution (ID)-Muster aus mehreren Perspektiven extrahieren. Da jedoch während des Trainings keine OOD-Daten vorhanden sind, fehlt es an expliziten Supervisionssignalen, was die Leistung dieser Encoder oft einschränkt.
Die neue Methode „Disentangled Graph Prompting“ (DGP) nutzt ein vortrainiertes GNN als Encoder und ergänzt es durch ein Prompting-Paradigma. Dabei werden zwei Prompt-Generatoren entwickelt, die jeweils klassenspezifische bzw. klassenagnostische Prompt‑Graphen erzeugen, indem sie die Kantengewichte des Eingangsgraphen anpassen. Zusätzlich werden gezielte Verlustfunktionen eingesetzt, um die Generatoren zu trainieren und triviale Lösungen zu verhindern.
In umfangreichen Experimenten auf zehn unterschiedlichen Datensätzen konnte DGP die beste Basislinie um 3,63 % in Bezug auf die AUC steigern. Ablationsstudien und Hyperparameteranalysen bestätigen die Wirksamkeit des Ansatzes und zeigen, dass die Trennung der Prompt‑Graphen entscheidend für die Leistung ist.
Der komplette Code ist frei verfügbar unter https://github.com/BUPT-GAMMA/DGP.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.