Microsoft entdeckt: Ein Prompt kann LLM‑Sicherheitsmechanismen umgehen
Microsofts Azure-Forschungsteam hat eine überraschende Schwachstelle in großen Sprachmodellen (LLMs) aufgedeckt: Mit einem einzigen, unmarkierten Trainingsprompt lassen sich die Sicherheitsmechanismen vieler Modelle umgehen. Die Entdeckung wurde von Mark Russinovich, CTO von Microsoft Azure, zusammen mit seinem Team veröffentlicht.