POME: Mit Muon-Projection die Leistung feinabgestimmter LLMs steigern

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die neueste Veröffentlichung auf arXiv (2510.06627v1) stellt POME – Post‑Optimization Model Edit – vor, ein Verfahren, das die Performance großer Sprachmodelle nach dem Fein‑Tuning verbessert, ohne zusätzliche Daten oder weitere Optimierungsschritte zu benötigen.

Der Kern von POME ist die muon‑Style‑Projection auf die Gewichtsdifferenz ΔW zwischen dem vortrainierten und dem feinabgestimmten Modell. Durch eine abgeschnittene Singulärwertzerlegung (SVD) werden dominante Update‑Richtungen ausgeglichen und kleine Singularwerte, die häufig Rauschen darstellen, entfernt. Dieser Schritt erfolgt als reiner Nachbearbeitung und ist vollständig vom Trainingsprozess entkoppelt.

Dank seiner Zero‑Cost‑Natur verursacht POME keinerlei Overhead, erfordert keine Änderungen am Optimizer und ist damit mit jedem verteilten Framework kompatibel. In Tests konnte die Methode durchschnittlich +2,5 % bei GSM8K und +1,0 % bei Code‑Generierung erzielen – ein Gewinn, der von 7 B‑Modellen bis zu 72 B‑RLHF‑Instruct‑Modellen übertragbar ist.

Der Quellcode ist frei verfügbar unter https://github.com/NUS-HPC-AI-Lab/POME.

Ähnliche Artikel