Semi-supervised GCNs optimiert durch kontrastives Lernen und Selbsttraining
Ein neues arXiv-Papier (2512.13770v1) präsentiert MV‑SupGCN, ein semi‑supervised Graph Convolutional Network, das die Integration von heterogenen Ansichten in Graphdaten neu definiert. Durch die Kombination von Cross‑Entropy‑ und Supervised‑Contrastive‑Loss wird die Modellgeneralisierung gesteigert, indem die Varianz innerhalb einer Klasse reduziert und die Trennung zwischen Klassen im latenten Raum maximiert wird.
Um die Schwächen einzelner Graph‑Konstruktionen zu überwinden, kombiniert MV‑SupGCN KNN‑basierte und semi‑supervised Graph‑Methoden für jede Ansicht. Diese doppelte Struktur erhöht die Stabilität der Datenrepräsentation und senkt die Generalisierungsfehler, was besonders bei unbalancierten oder verrauschten Datensätzen von Vorteil ist.
Ein weiteres Highlight ist die einheitliche Nutzung von kontrastivem Lernen und Pseudo‑Labeling. Durch die erzwingende Konsistenz zwischen Multi‑View‑Embeddings werden sinnvolle inter‑View‑Beziehungen erfasst, während die Pseudo‑Labels zusätzliche Supervision für unlabeled Daten liefern. Das Ergebnis ist eine verbesserte semantische Ausrichtung und eine höhere Modellleistung auf komplexen Multi‑View‑Datensätzen.