Deepfake‑Vishing: KI‑Sprachklonierung macht soziale Manipulation schwer erkennbar
Anzeige
KI‑gestützte Sprachklonierung ermöglicht es Angreifern, Stimmen mit erstaunlicher Genauigkeit zu reproduzieren. Durch diese Technik können sie Telefonanrufe vorgeben, die sich wie echte Kontakte anfühlen. Dadurch werden klassische Anzeichen von Betrug wie unnatürliche Tonlagen oder Abweichungen im Sprechtempo schwerer erkennbar.
Traditionelle Phishing‑Schutzsysteme prüfen oft die Identität anhand von Tonverlauf oder Caller‑ID‑Daten. Deepfake‑Vishing überwindet diese Kontrollen, da die synthetische Stimme exakt dem gewünschten Profil entspricht. Das erhöht das Risiko, dass sensible Informationen preisgegeben werden, bevor der Verdacht aufkommt.
Insgesamt stellen tiefklonierte Anrufe eine ernsthafte Bedrohung dar, die neue Sicherheitsprotokolle erfordert. (Quelle: Ars Technica – AI)
Ähnliche Artikel
The Register – Headlines
•
Fast die Hälfte der Unternehmen erlebte Deepfake-Anrufe gegen Mitarbeiter
The Register – Headlines
•
Google weist massive Gmail‑Sicherheitsvorfall‑Vorwürfe zurück
The Register – Headlines
•
Australia sues Microsoft for misleading Microsoft 365 users about Copilot subscription options
The Register – Headlines
•
Sora makes slurfect deepfakes of celebs spewing racial epithets
The Register – Headlines
•
Iran's MuddyWater wades into 100+ government networks in latest spying spree
The Register – Headlines
•
Nordkorea lockt mit Traumjob, hackt dabei PCs