GSPN-2: Revolutionäre Effizienz bei paralleler Bildverarbeitung
Die neueste Version des Generalized Spatial Propagation Network, GSPN-2, setzt einen neuen Standard für die Verarbeitung hochauflösender Bilder und langer Videosequenzen. Durch die Ersetzung der quadratischen Self‑Attention durch ein lineares Scan‑Propagation‑Schema wird die Rechenkomplexität nahezu linear in der Bildgröße gehalten, ohne die Genauigkeit zu beeinträchtigen.
GSPN-2 eliminiert die bisherigen Engpässe, indem es tausende Mikro‑Aufrufe zu einem einzigen 2‑D‑Kernel zusammenfasst. Jeder Warp wird einem Kanal‑Slice zugewiesen, während die Aktivierungen der vorherigen Spalte im Shared Memory zwischengespeichert werden. Diese Änderungen reduzieren den Overhead von GPU‑Kerneln, verringern die Datenübertragungen aus dem globalen Speicher und vermeiden redundante Berechnungen.
Auf Modellseite wird eine kompakte Kanal‑Propagation‑Strategie eingeführt, die die pro Kanal gespeicherten Matrizen durch ein einheitliches Gewichtssystem ersetzt. Dadurch werden die Parameterzahl reduziert und die Architektur besser an die Affinitätskarte der Transformer‑Attention angepasst.
Experimentelle Tests auf Bildklassifikations‑ und Text‑zu‑Bild‑Synthesis‑Aufgaben zeigen, dass GSPN-2 die Genauigkeit von Transformer‑Modellen erreicht, jedoch mit deutlich geringeren Rechenkosten. Damit definiert GSPN-2 eine neue Effizienzgrenze für die Modellierung globaler räumlicher Kontexte in visionären Anwendungen.