Steer2Adapt: Dynamische Vektor‑Kombination für effiziente LLM‑Anpassung
Aktivierungs‑Steering hat sich als vielversprechender Ansatz etabliert, um große Sprachmodelle (LLMs) schnell an spezifische Aufgaben anzupassen. Dabei wird die Ausgabe des Modells gezielt in eine gewünschte Richtung gelenkt, ohne das gesamte Netzwerk neu zu trainieren.
Der größte Nachteil bisheriger Methoden ist, dass sie pro Aufgabe oder Konzept nur einen einzigen, statischen Richtungsvektor verwenden. Das macht sie unflexibel, wenn Aufgaben variieren oder mehrere koordinierte Fähigkeiten gleichzeitig benötigt werden.
Mit STEER2Adapt wird dieses Problem gelöst. Das leichtgewichtige Framework nutzt anstelle neuer Vektoren die Zusammensetzung vorhandener Steering‑Vektoren. Dadurch kann das Modell auf neue Aufgaben reagieren, ohne von Grund auf neu lernen zu müssen.
In vielen Bereichen – etwa beim logischen Denken oder bei Sicherheitsfragen – teilen Aufgaben ein kleines Set fundamentaler Konzeptdimensionen. STEER2Adapt erfasst diese Dimensionen als wiederverwendbaren, niedrigdimensionalen semantischen Subraum. Für neue Aufgaben wird dann dynamisch eine lineare Kombination von Basisvektoren aus nur wenigen Beispielen gebildet.
Die Experimente erstreckten sich über neun Aufgaben und drei verschiedene Modelle in den Domänen Reasoning und Safety. STEER2Adapt erzielte dabei eine durchschnittliche Leistungssteigerung von 8,2 %. Zusätzlich zeigte eine detaillierte Analyse, dass das Verfahren daten‑effizient, stabil und transparent im Inferenzzeit‑Adaptationsmodus ist.