Amtliche VeröffentlichungZentralstelle Verbraucherschutz Deutschland · Geschäftszeichen ZVD-AZ-2026/1001
Zum Inhalt springen
UnabhängigDSGVO / SSLKeine ProvisionenEU-Verbraucherschutz konformServerstandort DESeit 2024 · München
Betrug & Phishing

Deepfake-Betrug: Wenn der Chef per Videocall Geld anweist

·6 Min. Lesezeit

Deepfake-Technologie wird zunehmend für Betrugsmaschen eingesetzt. Kriminelle erstellen mithilfe künstlicher Intelligenz täuschend echte Video- und Audiofälschungen von real existierenden Personen. In der Geschäftswelt werden auf diese Weise Vorgesetzte imitiert, die per Videocall Überweisungen anweisen. Doch auch Privatpersonen sind betroffen.

Bekannte Betrugsformen

  • CEO-Fraud mit Deepfake: Der „Chef" weist per Videocall eine dringende Überweisung an.
  • Enkeltrick 2.0: Die Stimme eines Familienangehörigen wird per KI geklont.
  • Prominenten-Betrug: Deepfake-Videos von Prominenten werben für betrügerische Geldanlagen.
  • Erpressung: Gefälschte kompromittierende Videos werden für Erpressungen verwendet.

Schutzmaßnahmen

Vereinbaren Sie interne Codewörter für sensible Aufträge. Verifizieren Sie ungewöhnliche Anweisungen über einen separaten Kommunikationskanal. Achten Sie auf Artefakte in Videos: unnatürliche Lippenbewegungen, merkwürdige Hauttexturen, unstimmige Beleuchtung. Seien Sie besonders misstrauisch bei dringenden Zahlungsanweisungen per Videocall.