Düsseldorf. Mit Hilfe von KI können Telefon-Betrüger bald jede Stimme klonen. Warum das so gefährlich ist und wie Sie bei so einem Anruf reagieren sollten.
Polizei und IT-Experten in NRW sind besorgt. Künstliche Intelligenz (KI), warnen sie, könne vor allem die Qualität von sogenannten Schock-Anrufen auf ein ganz neues Level heben. Denn die neue Technik macht es immer einfacher, Stimmen von Verwandten und Bekannten nachzuahmen. „Trauen Sie ihren Ohren besser nicht“, lautet die Devise.
Auch interessant
Die Zahl dieser Anrufe ist in NRW zuletzt stark gestiegen. Im vergangenen Jahr sind dem Landeskriminalamt (LKA) 8210 Fälle bekannt geworden. Ein Jahr zuvor waren es noch knapp 7000. Die Masche ist stets ähnlich. Der Anrufer gibt sich – meist gegenüber älteren Menschen - als Verwandter oder als ein mit einem Vorgang betrauter Polizeibeamter oder Rechtsanwalt aus und täuscht eine Notsituation vor. Es habe einen Unfall oder ein Verbrechen gegeben, nun drohe Gefängnis, wenn keine Kaution oder Strafe bezahlt wird. Möglichst sofort.
Opfer sollen keinen klaren Gedanken mehr fassen können
Einziger Zweck der Aktion: Die Angerufenen sollen unter Zeitdruck Geld oder Wertsachen, wie teuren Schmuck, an vermeintliche Beamte übergeben, um die Verwandtschaft vor dem Schlimmsten zu bewahren. Gekonnt wird dabei so viel Druck aufgebaut, dass die Opfer keinen klaren Gedanken mehr fassen können. Wenn die Täter in der Vergangenheit dennoch nicht ans Ziel kamen, lag es meistens daran, dass die Stimme am anderen Ende bei längerem Hinhören so gar nicht nach ihrem Kind oder Enkelkind klang. Genau das ändert sich gerade.
In den USA und Asien hat es bereits mehrere Fälle gegeben, in denen offenbar geklonte Stimmen genutzt worden sind. In einem der spektakulärsten bekommt Jennifer DeStefano aus Arizona einen Anruf, in dem allem Anschein nach ihre 15-jährige Tochter fleht: „Hilf mir, Mama. Ich wurde entführt.“ Dann fordert ein Mann eine Million Dollar Lösegeld. Nur weil zufällig Freunde zu Besuch sind, die vom Nebenzimmer aus schnell die anderen Familienmitglieder anrufen, stellt sich heraus, dass der Anruf ein Fake ist. Das Mädchen ist bei seinem Vater und wohlauf.
„Voice Cloning“ hat NRW erreicht
Treffen kann es aber nicht nur Privatpersonen. In Hongkong hat eine Bank vor kurzem einen Anruf von dem vermeintlichen Geschäftsführer eines ihrer Kunden erhalten. Er erteilt den Auftrag, 35 Millionen Dollar des eigenen Firmenkontos an ein anderes Unternehmen zu überweisen. Da der Bankmanager die Stimme wiedererkennt und gleichzeitig eine Bestätigung per E-Mail erhält, veranlasst er die Überweisungen.
Aber auch in NRW gibt es vermutlich erste Taten mit „Voice cloning“, mit technisch geklonten Stimmen also. Betroffen ist eine Familie aus Neuss. Als dort das Telefon klingelt und die Mutter abhebt, meldet sich „die Polizei aus Düsseldorf“. Dann ist die Stimme ihres Sohnes zu hören: „Mama, ich habe eine Frau tot gefahren“, sagt sie unter Tränen. So echt klingt das, dass die Mutter später „Stein und Bein“ schwört, sie habe ihren Sohn am Telefon gehabt. Dennoch behält sie die Nerven und hat so viele Nachfragen, dass die Gegenseite irgendwann auflegt.
Kurze Stimmprobe reicht bereits
Auch interessant
Ein Einzelfall? „Es gibt bisher keine Zahlen, inwieweit die neue Technik bei Schock-Anrufen genutzt wird“, heißt es aus dem Landeskriminalamt NRW. Aber die Polizei im Land macht sich keine Illusionen. „Die Frage ist nicht, ob Kriminelle die KI für ihre Zwecke nutzen, sondern wie schnell sie es tun“, sagt ein hoher Beamter, der ungenannt bleiben möchte. IT-Experten sehen das ähnlich. Die Programme werden immer schneller, die Algorithmen immer besser“, sagt etwa Professor Christof Paar vom Max-Planck-Institut für Sicherheit und Privatsphäre in Bochum.
Alles, was die Software benötigt, ist eine kurze Stimmprobe der menschlichen Stimme, die sie imitieren soll. In Zeiten, in denen Millionen Menschen in Videos auf YouTube, TikTok, Instagram oder Facebook gerne plaudern, meist kein Problem. Und falls sie das nicht tun, kann auch ein fingierter Anruf der Betrüger reichen. Microsofts neuer KI mit dem Namen „VALL-E“ reichen angeblich Tonschnipsel von gerade einmal drei Sekunden, um eine Stimme zu imitieren. Da kann schon der Satz „Ich glaube, Sie sind falsch verbunden“ reichen.
Stimmautorisierung nicht mehr sicher?
Auch interessant
Eine Gefahr kann das Voice Cloning auch für Behörden und Institutionen darstellen, bei denen man sich – „Meine Stimme ist mein Passwort“ - akustisch autorisieren kann. Während deutsche Banken die Möglichkeit – anders als Geldinstitute in England oder Australien - bisher nicht anbieten, wirbt etwa die Telekom in ihrem Internetauftritt für die Sprach-ID: „So können Sie bei zukünftigen Anrufen schnell und sicher Ihre Identität, ohne Angabe von Kundennummern oder Kennwörtern, nachweisen - allein mit Ihrer Stimme.“
Wie echt die falschen Stimmen klingen, konnten viele Menschen in NRW vor einigen Wochen hören, als im WDR2-Morgenmagazin anscheinend Kanzler Olaf Scholz – für seine Verhältnisse sehr unterhaltsam und wortreich - moderierte. Doch nicht immer bleibt es bei solch harmlosen Scherzen. So kursiert im Netz seit einiger Zeit ein Clip, in dem die Schauspielerin Emma Watson eine Passage aus Hitlers „Mein Kampf“ vorträgt, was sie natürlich nie gemacht hat.
Schutz vor Voice Cloning bei Schock-Anrufen gibt es bisher übrigens nicht. Paar weiß, dass Programme in der Entwicklung sind, die gefakte Stimmen entlarven können. „Das wird auch irgendwann funktionieren“, ist sich der Professor sicher. Dann aber werde die kriminelle Szene nachlegen und ihre Software verändern und verbessern. „Das wird ein klassisches Katz-und-Maus-Spiel.“ Wer das nicht mitspielen will, hat nur eine Möglichkeit: Immer misstrauisch bleiben am Telefon.