DecoHD: Hyperdimensional Klassifikation mit extremen Speicherersparnissen
Die neueste Veröffentlichung von DecoHD zeigt, wie Hyperdimensional Computing (HDC) unter extremen Speicherbeschränkungen effizient bleiben kann. Durch die Kombination von Decomposition mit einer neuen Parameterisierung lernt DecoHD direkt in einer kompakten, aber hochdimensionalen Repräsentation, ohne die Eingabe- und Ausgabegrößen zu verändern.
Im Gegensatz zu bisherigen HDC‑Ansätzen, die feste atomare Hypervektoren nutzen, bindet DecoHD pro Layer ein kleines, gemeinsames Set von Kanälen ein. Diese Kanäle werden multiplizativ über die Schichten gebunden und am Ende gebündelt, wodurch ein großer Repräsentationsraum aus wenigen Faktoren entsteht. Der kompakte Bündelkopf reduziert die Klassifikationsachse, während die klassische Bind‑Bundle‑Score‑Logik erhalten bleibt.
Die Ergebnisse sind beeindruckend: Unter strengen Speicherbudgets verliert DecoHD nur 0,1 – 0,15 % der Genauigkeit im Vergleich zu einem vollwertigen HDC‑Modell, mit einem maximalen Verlust von 5,7 %. Gleichzeitig reduziert es die Anzahl trainierbarer Parameter um bis zu 97 % und bleibt dabei robuster gegenüber zufälligen Bit‑Flip‑Störungen. Auf Hardware‑Ebene erzielt DecoHD bis zu 277‑fachen Energie‑ und Geschwindigkeitsgewinne gegenüber einem AMD‑Ryzen‑CPU, 13,5‑fachen gegenüber einer NVIDIA‑RTX‑4090 und 2‑fachen gegenüber einer Standard‑HDC‑ASIC.
Die Methode ist vollständig end‑to‑end trainierbar und die Inferenz bleibt reine HDC, was eine nahtlose Integration in In‑Memory‑ und Near‑Memory‑Acceleratoren ermöglicht. DecoHD demonstriert damit, dass Hyperdimensional Computing auch unter extremen Speicher‑ und Rechenbudgetbedingungen leistungsfähig und effizient bleibt.