Tuning-freie Rekonstruktion sparsiger Signale bei MMV mit Impliziter Regularisierung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die gleichzeitige Rekonstruktion mehrerer sparsiger Signale – ein zentrales Problem im Bereich des maschinellen Lernens – stellt seit langem eine Herausforderung dar. Traditionelle Verfahren wie M-OMP oder M-FOCUSS benötigen häufig eine sorgfältige Parameterwahl oder vorausgehende Kenntnisse über die Sparsität der Signale bzw. die Rauschvarianz.

In einer neuen Veröffentlichung wird ein völlig tuningfreier Ansatz vorgestellt, der die Implicit Regularization (IR) aus dem Bereich der Überparameterisierung nutzt. Durch eine Neuparameterisierung der Schätzmatrix in Faktoren, die die gemeinsame Zeilenunterstützung von den einzelnen Vektoreinträgen trennen, wird die gewünschte zeilenweise Sparsität ohne externe Einstellungen gefördert.

Die Autoren zeigen theoretisch, dass bei einer klein­en, ausgewogenen Initialisierung die Optimierungs­dynamik einen „Momentum‑ähnlichen“ Effekt erzeugt. Dabei wachsen die Normen der Zeilen im wahren Support deutlich schneller als die übrigen, was die Konvergenz zu einer idealen zeilen‑sparsen Lösung garantiert.

Experimentelle Ergebnisse belegen, dass dieser Ansatz die Leistung etablierter Methoden erreicht – und das ohne jegliche Vor‑information oder manuelle Parameteranpassung. Damit eröffnet die Arbeit einen vielversprechenden Weg für robuste, automatisierte Sparse‑Recovery‑Algorithmen im MMV‑Setting.

Ähnliche Artikel