Das Online-Gesellschaftsmagazin aus Frankfurt am Main

Letzte Aktualisierung: 18.06.2024

Werbung
Werbung

KnowBe4 warnt: Enkeltrick per künstlicher Intelligenz

von pm/ots

(17.05.2023) Die Betrugsmasche, dass ein vermeintliches Enkelkind bei den Großeltern anruft und aufgrund einer Krisensituation finanzielle Unterstützung braucht, ist bereits bekannt. Doch was, wenn jetzt nicht mehr nur die ältere Generation Ziel dieser Angriffstaktik ist, sondern jeder darauf hereinfallen kann: Betrüger setzen nun künstliche Intelligenz ein, um die Stimmen von Familienangehörigen nachzuahmen.

Es beginnt mit einem Anruf. Wird dieser angenommen, geben sich die Betrüger als Familienangehörige oder Bekannte des Opfers aus. Sie klingen panisch und schildern eine vermeintliche Krisensituation, in der sie sich befinden. Meist ist es etwas wie: "Ich hatte einen Unfall oder bin im Gefängnis", oder "Ich wurde beklaut und kann nicht nach Hause kommen". Darauf folgt dann die Bitte, dass man ihnen Geld überweist, um das Problem zu lösen.

Mit den neuen KI-Technologien ist jede Altersgruppe gefährdet, auf diese Masche hereinzufallen. Die Betrüger nutzen Stimmerkennungssoftware, um die Stimmen von Familienangehörigen und Bekannten zu imitieren und ihre Opfer davon zu überzeugen, dass tatsächlich die in Frage kommende Person am Telefon ist. Ein Stimmverzerrer, kombiniert mit einer künstlichen Intelligenz, sorgt dafür, dass das vom Betrüger ins Telefon gesprochene auf der anderen Seite so klingt wie die imitierte Person.

Damit ein derartiges Stimmprofil erstellt werden kann, benötigt die KI nur eine kurze Tonspur, auf der die zu imitierende Person ein paar Sätze spricht. Diese sind in der heutigen Zeit und Welt von Social Media einfacher zu finden und somit auch zu missbrauchen als jemals zuvor. Egal ob Instagram, TikTok, Facebook, etc.: Wer Videos oder reine Audios von sich selbst hochlädt, in denen gesprochen wird, setzt sich der Gefahr aus, nachgeahmt zu werden.

Mehr auf: https://ots.de/f4d3bO