Forschung
<p>ML-Angriffe entschlüsseln: Wie man den Angreifer aus Beobachtungen erkennt</p> <p>In automatisierten Entscheidungssystemen sind maschinelle Lernmodelle zunehmend anfällig für Datenmanipulationen. Während bisherige Verteidigungsstrategien meist das Modell selbst oder das gesamte System schützen, richtet sich die neue Forschung in eine andere Richtung: Sie versucht, den Angreifer zu identifizieren, nicht nur die Angriffe zu verhindern.</p> <p>Die Autoren zeigen zunächst, dass ein Angreifer ohne zusätzliche
arXiv – cs.LG