PSO-Merging: Modelle effizient verschmelzen mit Partikelschwarm-Optimierung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der aktuellen Forschung gewinnt das Mergen von Modellen zunehmend an Bedeutung, weil dadurch die Stärken mehrerer Expertenmodelle zu einem einzigen Multitask-Modell zusammengeführt werden können. Dadurch entfällt die Notwendigkeit, ein vortrainiertes Modell für jede Aufgabe von Grund auf neu zu feinabstimmen.

Traditionelle, datenunabhängige Merging‑Methoden stoßen an ihre Grenzen, weil sie keine datengetriebene Orientierung besitzen. Datenbasierte Ansätze wiederum kämpfen mit zwei Hauptproblemen: Gradient‑basierte Verfahren sind rechenintensiv und daher bei großen Expertenmodellen kaum praktikabel, während bestehende gradientenfreie Methoden häufig keine zufriedenstellenden Ergebnisse innerhalb einer begrenzten Anzahl an Optimierungsschritten liefern.

Um diese Einschränkungen zu überwinden, stellt der neue Ansatz PSO‑Merging vor, der die Partikelschwarm‑Optimierung (PSO) nutzt. Dabei wird die Partikelwolke mit einem vortrainierten Modell, den Expertenmodellen und deren sparsifizierten Varianten initialisiert. Durch mehrere Iterationen wird der globale beste Partikel zum endgültigen, zusammengeführten Modell.

Experimentelle Tests an verschiedenen Sprachmodellen zeigen, dass PSO‑Merging die Basis‑Merging‑Methoden im Allgemeinen übertrifft. Der Ansatz bietet eine effizientere und skalierbarere Lösung für das Modell‑Merging und eröffnet damit neue Möglichkeiten für die Entwicklung leistungsfähiger Multitask‑Modelle.

Ähnliche Artikel