top of page
Logo mit Ä_edited.png

Polizei warnt vor Betrug mit geklonten Stimmen

Aktualisiert: 7. Apr.

Polizeioberrat Jannes Ulferts informierte am 10.03.25 im Mehrgenerationenhaus über Maschen mit Künstlicher Intelligenz


Enkeltrick, Schockanrufe, falsche Polizisten am Telefon, Datenklau im Internet: Wenn es darum geht, andere um Geld zu bringen, setzen Betrüger auf bewährte Maschen – und schon lange auf moderne Technik.

Durch den Einsatz von Künstlicher Intelligenz (KI) hätten sie aber inzwischen noch leichteres Spiel, ihre Opfer zu täuschen. Für diese Gefahr sensibilisierte jetzt Polizeioberrat Jannes Ulferts rund 50 Zuhörer im Mehrgenerationenhaus an der Banter Kirche – unter ihnen Mitglieder des Seniorenstützpunktes und viele Ehrenamtliche, die sich als Sicherheitsberater engagieren.

Nichts leichtfertig für bare Münze nehmen

Der Verein für kommunale Prävention in Wilhelmshaven (VKP) hatte den KI-Experten und Leiter des Polizeikommissariats Wittmund eingeladen, die Gefahren von KI aus polizeilicher Sicht vorzustellen.

Anfangs kann sich der Referent zurücklehnen, lässt die KI in einem Video selbst erklären, warum sie in den Händen von Verbrechern gefährlich werden kann. Ulferts hatte es vorab über eine kostenfreie KI-App erzeugen lassen. In wenigen Minuten. Allein das öffnete vielen Zuhörern die Augen.


Enkeltrick mit geklonter Stimme

Der wichtigste Tipp des Polizeioberrats: Aufmerksam und skeptisch sein – nichts leichtfertig für bare Münze nehmen! Durch KI könnten Betrüger viel einfacher und schneller Dokumente, Fotos, Dienstausweise oder ganze Internetseiten fälschen. Besonders tückisch: Selbst Stimmen lassen sich „klonen“ und falsche Aussagen in gefälschten Videos den Betroffenen nahezu lippensynchron in den Mund legen. Der Experte zeigt das anhand vieler Beispiele, lässt etwa seinen Computer den Text einer Vortrags-Präsentation laut vorlesen. Die Stimme ist KI-generiert, kommt seiner eigenen zum Verwechseln nahe. Grundlage sind wenige Sätze, die Ulferts zuvor in einer App einspricht.

„Meine Eltern würden keinen Unterschied erkennen, wenn sie diese Stimme am Telefon hören“, sagt Ulferts und macht klar: Für Menschen mit Sehbehinderung ist diese Technik ein Segen, in den falschen Händen aber könne sie ein gefährliches Werkzeug sein – etwa beim Schockanruf oder Enkeltrick, bei dem Verbrecher am Telefon vorgaukeln, dass Angehörige in finanziellen Schwierigkeiten sind.

Ulferts gibt deshalb einen alten Hinweis: Niemals würde die Polizei anrufen und Geld fordern. Sein Rat: Sofort auflegen und die „echten“ Angehörigen anrufen.

Zudem sollten Familien ein geheimes Code-Wort vereinbaren, das bei solchen Anrufen im Zweifel abgefragt werden könnte.


Umgang mit persönlichen Daten

Noch etwas betont Ulferts: Mit Blick auf die Möglichkeiten sei es wichtiger denn je, verantwortungsvoll mit den eigenen Daten umzugehen und nicht jeden Familienschnappschuss im Internet zu veröffentlichen. KI-Systeme könnten in Sozialen Medien oder bei Youtube frei verfügbare Bilder, Videos und gesprochene Texte abgreifen, die wiederum von Kriminellen dazu verwendet werden, um die Stimmen von Angehörigen, Freunden oder Arbeitskollegen zu „klonen“. Gängige Praxis sei das zum Glück noch nicht. Bislang würden sich die Täter nicht die Mühe machen und stattdessen so viele potenzielle Opfer wie möglich kontaktieren, um die Erfolgschancen zu erhöhen. In einigen Jahren könnte das schon ganz anders aussehen.

Zum Einsatz kommt KI indes längst bei großangelegten Betrugsmaschen, die ausgewählte Opfer ins Visier nehmen. So berichtet Ulferts von einem Fall in Italien, in dem mindestens elf Unternehmer von großen Konzernen einen „geklonten“ Anruf vom mutmaßlichen Verteidigungsminister erhalten haben – erstellt mit KI. Sie sollten Italien Geld für eine Lösegeldzahlung zur Geiselbefreiung vorstrecken. Schaden: 900.000 Euro.



Comments


bottom of page