Amtliche VeröffentlichungZentralstelle Verbraucherschutz Deutschland · Geschäftszeichen ZVD-AZ-2026/1001
Zum Inhalt springen
UnabhängigDSGVO / SSLKeine ProvisionenEU-Verbraucherschutz konformServerstandort DESeit 2024 · München
Betrug & Phishing

KI-Stimmenklon: Betrüger imitieren Angehörige per Telefon

·5 Min. Lesezeit

Eine besonders beunruhigende Entwicklung ist der Missbrauch von KI-Technologie zum Klonen von Stimmen. Bereits wenige Sekunden einer Sprachaufnahme – etwa aus einem Social-Media-Video oder einem Anrufbeantworter – genügen, um eine täuschend echte Stimmkopie zu erstellen. Betrüger nutzen diese, um Verwandte anzurufen und unter Vortäuschung eines Notfalls Geld zu fordern.

So schützen Sie sich

  • Vereinbaren Sie ein geheimes Codewort innerhalb der Familie, das bei Telefonaten in Notfällen abgefragt wird.
  • Rufen Sie die Person unter ihrer bekannten Nummer zurück, bevor Sie Geld überweisen.
  • Schränken Sie die Öffentlichkeit von Sprachaufnahmen auf Social Media ein.
  • Seien Sie besonders misstrauisch bei emotionalen Anrufen, die sofortiges Handeln fordern.

Erkennung von KI-geklonten Stimmen

Achten Sie auf unnatürliche Pausen, metallische Klangfarben oder leichte Echoeffekte. Stellen Sie Fragen, die nur der echte Angehörige beantworten kann – persönliche Erinnerungen, gemeinsame Erlebnisse oder das vereinbarte Codewort.