Deepfake-Betrug: Wenn der Chef per Videocall Geld anweist
Deepfake-Technologie wird zunehmend für Betrugsmaschen eingesetzt. Kriminelle erstellen mithilfe künstlicher Intelligenz täuschend echte Video- und Audiofälschungen von real existierenden Personen. In der Geschäftswelt werden auf diese Weise Vorgesetzte imitiert, die per Videocall Überweisungen anweisen. Doch auch Privatpersonen sind betroffen.
Bekannte Betrugsformen
- CEO-Fraud mit Deepfake: Der „Chef" weist per Videocall eine dringende Überweisung an.
- Enkeltrick 2.0: Die Stimme eines Familienangehörigen wird per KI geklont.
- Prominenten-Betrug: Deepfake-Videos von Prominenten werben für betrügerische Geldanlagen.
- Erpressung: Gefälschte kompromittierende Videos werden für Erpressungen verwendet.
Schutzmaßnahmen
Vereinbaren Sie interne Codewörter für sensible Aufträge. Verifizieren Sie ungewöhnliche Anweisungen über einen separaten Kommunikationskanal. Achten Sie auf Artefakte in Videos: unnatürliche Lippenbewegungen, merkwürdige Hauttexturen, unstimmige Beleuchtung. Seien Sie besonders misstrauisch bei dringenden Zahlungsanweisungen per Videocall.
Weitere Artikel
WhatsApp-Enkeltrick: Neue Betrugsmasche 2026
Kriminelle geben sich per WhatsApp als Familienangehörige aus und bitten um Geldüberweisungen. So erkennen Sie den Betrug und schützen sich effektiv.
Gefälschte Zoll-SMS: So erkennen Sie den Betrug
Betrügerische SMS im Namen des Zolls fordern Gebühren für angebliche Pakete. Wir zeigen, wie Sie die Fälschungen erkennen und richtig reagieren.
Anlagebetrug auf Krypto-Plattformen: Warnung
Betrügerische Krypto-Plattformen locken mit unrealistischen Renditen und Promi-Werbung. So erkennen Sie die Warnsignale und schützen Ihr Geld.