Forschung arXiv – cs.LG

AGZO: Aktivitätsgesteuerte Zeroth-Order-Optimierung verbessert LLM-Fine‑Tuning

Die neue Methode AGZO (Activation‑Guided Zeroth‑Order) bietet eine elegante Lösung für das Feintuning großer Sprachmodelle unter extremen Speicherbeschränkungen. Während klassische Zeroth‑Order‑Optimierungen (ZO) mit is…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die neue Methode AGZO (Activation‑Guided Zeroth‑Order) bietet eine elegante Lösung für das Feintuning großer Sprachmodelle unter extremen Speicherbeschränkungen.
  • Während klassische Zeroth‑Order‑Optimierungen (ZO) mit isotropen Störungen arbeiten und damit die Speicher­kosten für Aktivierungen umgehen, nutzt AGZO die bereits im Fo…
  • Der Kern der Innovation liegt in der Erkenntnis, dass der Gradient einer linearen Schicht ausschließlich im Unterraum liegt, der von ihren Eingabeaktivierungen aufgespan…

Die neue Methode AGZO (Activation‑Guided Zeroth‑Order) bietet eine elegante Lösung für das Feintuning großer Sprachmodelle unter extremen Speicherbeschränkungen. Während klassische Zeroth‑Order‑Optimierungen (ZO) mit isotropen Störungen arbeiten und damit die Speicher­kosten für Aktivierungen umgehen, nutzt AGZO die bereits im Forward‑Pass vorhandene Aktivitätsstruktur, um effizientere Updates zu generieren.

Der Kern der Innovation liegt in der Erkenntnis, dass der Gradient einer linearen Schicht ausschließlich im Unterraum liegt, der von ihren Eingabeaktivierungen aufgespannt wird. AGZO extrahiert diesen kompakten, aktivitätsinformierten Unterraum dynamisch während des Forward‑Passes und beschränkt die Störungen auf diese niedrigrangige Dimension. Dadurch werden die Optimierungsbewegungen gezielter und weniger verrauscht.

Ein theoretischer Rahmen zeigt, dass AGZO ein subspace‑glättetes Ziel optimiert und nachweislich Richtungen liefert, die eine höhere Kosinus‑Ähnlichkeit zum wahren Gradienten aufweisen als isotrope Baselines. Diese mathematische Garantie erklärt, warum die Methode konsequent bessere Ergebnisse erzielt.

In umfangreichen Tests auf den Modellen Qwen3 und Pangu, die an verschiedenen Benchmarks evaluiert wurden, übertrifft AGZO die führenden ZO‑Baselines deutlich. Der Leistungsabstand zu First‑Order‑Fine‑Tuning wird signifikant reduziert, während der Speicherverbrauch nahezu unverändert bleibt – gleichwertig zu anderen ZO‑Ansätzen. Diese Kombination aus Effizienz, Genauigkeit und geringem Speicherbedarf macht AGZO zu einem vielversprechenden Werkzeug für das Feintuning von LLMs in ressourcenbeschränkten Umgebungen.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

AGZO
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
zeroth-order optimization
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Activation-Guided
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen