Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Angriffe”
Forschung

<p>ML-Angriffe entschlüsseln: Wie man den Angreifer aus Beobachtungen erkennt</p> <p>In automatisierten Entscheidungssystemen sind maschinelle Lernmodelle zunehmend anfällig für Datenmanipulationen. Während bisherige Verteidigungsstrategien meist das Modell selbst oder das gesamte System schützen, richtet sich die neue Forschung in eine andere Richtung: Sie versucht, den Angreifer zu identifizieren, nicht nur die Angriffe zu verhindern.</p> <p>Die Autoren zeigen zunächst, dass ein Angreifer ohne zusätzliche

arXiv – cs.LG
Forschung

<p>Physische Angriffe auf ML-Wahlmaschinen: Manipulation von Stimmzetteln</p> <p>Moderne Machine‑Learning‑Modelle können Wahlzettel mit über 99 % Genauigkeit klassifizieren. Gleichzeitig zeigen neue Forschungsergebnisse, dass diese Systeme durch gezielte, physisch gedruckte Angriffe ausgenutzt werden können. In einer kürzlich veröffentlichten Studie wird untersucht, wie ein Angreifer mithilfe von adversarialen Stimmzetteln ein US‑Wahlverfahren manipulieren könnte.</p> <p>Die Autoren entwickeln ein probabili

arXiv – cs.LG
Forschung

<p>Federated Learning ermöglicht datenschutzfreundliches Modelltraining, doch die geteilten lokalen Updates bleiben Angriffen ausgesetzt. Um diese Schwachstellen zu beheben, wurden sichere Aggregationsverfahren entwickelt, die die Privatsphäre der Clients schützen.</p> <p>Die bisher vorgeschlagene Quantum Secure Aggregation (QSA) nutzt einen einzigen globalen GHZ‑Zustand, um die Client‑Updates in die globale Phase mehrteiliger, verschränkter Zustände zu kodieren. Bei steigender Teilnehmerzahl verschlechtert

arXiv – cs.LG