KI-Stimmenklon: Betrüger imitieren Angehörige per Telefon
Eine besonders beunruhigende Entwicklung ist der Missbrauch von KI-Technologie zum Klonen von Stimmen. Bereits wenige Sekunden einer Sprachaufnahme – etwa aus einem Social-Media-Video oder einem Anrufbeantworter – genügen, um eine täuschend echte Stimmkopie zu erstellen. Betrüger nutzen diese, um Verwandte anzurufen und unter Vortäuschung eines Notfalls Geld zu fordern.
So schützen Sie sich
- Vereinbaren Sie ein geheimes Codewort innerhalb der Familie, das bei Telefonaten in Notfällen abgefragt wird.
- Rufen Sie die Person unter ihrer bekannten Nummer zurück, bevor Sie Geld überweisen.
- Schränken Sie die Öffentlichkeit von Sprachaufnahmen auf Social Media ein.
- Seien Sie besonders misstrauisch bei emotionalen Anrufen, die sofortiges Handeln fordern.
Erkennung von KI-geklonten Stimmen
Achten Sie auf unnatürliche Pausen, metallische Klangfarben oder leichte Echoeffekte. Stellen Sie Fragen, die nur der echte Angehörige beantworten kann – persönliche Erinnerungen, gemeinsame Erlebnisse oder das vereinbarte Codewort.
Weitere Artikel
WhatsApp-Enkeltrick: Neue Betrugsmasche 2026
Kriminelle geben sich per WhatsApp als Familienangehörige aus und bitten um Geldüberweisungen. So erkennen Sie den Betrug und schützen sich effektiv.
Gefälschte Zoll-SMS: So erkennen Sie den Betrug
Betrügerische SMS im Namen des Zolls fordern Gebühren für angebliche Pakete. Wir zeigen, wie Sie die Fälschungen erkennen und richtig reagieren.
Anlagebetrug auf Krypto-Plattformen: Warnung
Betrügerische Krypto-Plattformen locken mit unrealistischen Renditen und Promi-Werbung. So erkennen Sie die Warnsignale und schützen Ihr Geld.