Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Haft”
Forschung

<h1>Post-Training von LLMs: Verborgene Sicherheitsmechanismen wiederherstellen</h1> <p>Wissenschaftler haben herausgefunden, dass große Sprachmodelle (LLMs) nach einer zusätzlichen Post‑Training‑Phase häufig ihre ursprünglichen Sicherheitsmechanismen verlieren. Obwohl die Modelle dadurch in speziellen Aufgaben wie komplexem logischem Denken stark an Leistung gewinnen, steigt gleichzeitig das Risiko, dass sie schädliche Inhalte erzeugen.</p> <p>Die Analyse zeigt, dass das Post‑Training die ursprünglichen Sch

arXiv – cs.AI