Tri-Accel: GPU-Optimierung mit adaptiver Präzision und Speicherflexibilität

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Tri-Accel ist ein neues, einheitliches Optimierungsframework, das drei fortschrittliche Beschleunigungstechniken gleichzeitig anpasst. Durch die Kombination von präzisions‑adaptiven Updates, sparsamen zweiten‑Ordnungssignalen und speicher‑elastischem Batch‑Scaling kann das System während des Trainings dynamisch die Ressourcenverteilung optimieren.

Die drei Kernkomponenten von Tri-Accel arbeiten wie folgt: Erstens werden die Präzisionsstufen für einzelne Netzwerk‑Schichten anhand von Krümmungs‑ und Gradientenschwankungen bestimmt. Zweitens nutzt das Framework die Sparsität der Hessian‑ bzw. Fisher‑Matrix, um sowohl die Präzision als auch die Schrittgröße zu steuern. Drittens passt die Batch‑Größe in Echtzeit an die verfügbare VRAM‑Kapazität an, sodass der Speicherverbrauch stets im Rahmen bleibt.

Auf dem CIFAR‑10‑Datensatz mit ResNet‑18 und EfficientNet‑B0 konnte Tri-Accel die Trainingszeit um bis zu 9,9 % reduzieren und den Speicherbedarf um 13,3 % senken, während die Genauigkeit um 1,1 Prozentpunkte gegenüber einem FP32‑Baseline‑Training steigerte. Bei Tests auf CIFAR‑10/100 zeigte das System eine kontinuierliche Effizienzsteigerung, da das Modell im Verlauf des Trainings lernt, Ressourcen gezielter einzusetzen.

Im Vergleich zu statischem Mixed‑Precision‑Training behält Tri-Accel 78,1 % der Genauigkeit bei, während der Speicherverbrauch von 0,35 GB auf 0,31 GB gesenkt wird. Die Implementierung nutzt maßgeschneiderte Triton‑Kernels, die hardware‑bewusst arbeiten und eine automatische Optimierung ohne manuelle Hyperparameter‑Einstellung ermöglichen, was Tri-Accel für den Einsatz in verschiedensten Rechenumgebungen besonders attraktiv macht.

Ähnliche Artikel