Neural Collapse under Gradient Flow on Shallow ReLU Networks for Orthogonally Separable Data
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Sequence Modeling with Spectral Mean Flows
arXiv – cs.LG
•
Optimal Rates for Generalization of Gradient Descent for Deep ReLU Classification
arXiv – cs.LG
•
Neues Stiefel-Manifold-Init für tiefe ReLU-Netze: Stabilere Trainingsleistung
arXiv – cs.LG
•
Gating in RNNs wirkt wie adaptive Lernrate – neue dynamische Einsicht
arXiv – cs.LG
•
Neues Semi‑Supervised Pre‑Training verbessert Zeitreihenklassifikation