LLM‑Sicherheit: Wie Regelformate die Compliance von Sprachmodellen steuern

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Entwicklung sicherer Agenten, die auf großen Sprachmodellen (LLMs) basieren, erfordert weit mehr als bloßes Prompt‑Engineering. In einer neuen Analyse aus dem arXiv‑Repository wird gezeigt, wie die Art und Weise, wie Regeln in System‑Prompts eingebettet werden, die Aufmerksamkeitsmechanismen und das Compliance‑Verhalten der Modelle beeinflusst.

Die Studie legt nahe, dass Regelformate mit geringer syntaktischer Entropie und stark konzentrierten Ankerpunkten die Aufmerksamkeitsentropie senken und die Genauigkeit der Pointer‑Fidelity erhöhen. Gleichzeitig wird ein grundlegender Kompromiss zwischen Anker‑Redundanz und Aufmerksamkeitsentropie aufgedeckt, den frühere Arbeiten bislang übersehen haben.

Durch eine formale Untersuchung verschiedener Aufmerksamkeitsarchitekturen – von kausal bis bidirektional, lokal-sparse, kernelisiert und cross‑attention – werden Grenzen für die Pointer‑Fidelity bestimmt. Dabei wird deutlich, dass die Platzierung von Ankern sowohl die Treue als auch die Entropie berücksichtigen muss.

Die Autoren kombinieren diese Erkenntnisse mit einer dynamischen Regel‑Verifikationsarchitektur und beweisen formal, dass das Hot‑Reloading verifizierter Regelsets die asymptotische Wahrscheinlichkeit konformer Ausgaben erhöht. Die Ergebnisse unterstreichen die Notwendigkeit eines prinzipiellen Anker‑Designs und dualer Durchsetzungsmechanismen, um LLM‑basierte Agenten vor Prompt‑Injection-Angriffen zu schützen und gleichzeitig die Compliance in sich wandelnden Domänen sicherzustellen.

Ähnliche Artikel