Betrugsmaschen mit Künstlicher Intelligenz nehmen auch in Delmenhorst zu
Die Verbraucherzentralen warnen davor, dass betrügerische Machenschaften auf Basis von Künstlicher Intelligenz (KI) von Cyberkriminellen verstärkt eingesetzt werden. Offensichtlich wird es im Web immer wichtiger, zu hinterfragen, zu differenzieren und sich auf die perfiden Tricks vorzubereiten.
Gefälschte Schreiben, Abo-Fallen, Fakeshops, manipulierte Bilder und Videos, Schockanrufe mit imitierten Stimmen – Künstliche Intelligenz wird immer häufiger für betrügerische Zwecke missbraucht. Doch Maschinen sind nicht immer perfekt. Obgleich es angesichts der digitalen Perfektion immer schwieriger wird, auf gefakte und täuschend echte Inhalte nicht hereinzufallen, gibt es auch für technisch weniger affine User Möglichkeiten, die zu identifizieren.
Die Entwicklung der sogenannten Künstlichen Intelligenz, die laut Forschenden erstens nicht neu und zweiten alles andere als intelligent ist, befindet sich mit Programmen wie Gemini oder Chat-GPT auf der Überholspur. Die Möglichkeiten und Schlupflöcher sind längst auch von Betrügern und weiteren Kriminellen erkannt und adaptiert worden.
Dabei sind etliche der angewandten betrügerischen Maschen wie der „Enkeltrick“ gefälschte Nachrichten über soziale Medien oder automatisierte Phishing-Versuche seit Jahren und teils Jahrzehnten bekannt. Feststellbar ist aktuell, dass diese und weitere Betrugsmaschen durch die Erstellung täuschend echter Bilder, Videos und mit KI verfälschten Stimmen maßgeblich verstärkt werden.
So nutzen Betrüger KI beispielsweise, um nicht nur Gesichter, sondern inzwischen auch die dazugehörigen Stimmen zu klonen, sodass die Inhalte, Anrufe oder auch visuellen Chats etwa über WhatsApp als vertrauenswürde Quellen erscheinen. Das Perfide daran ist die vermeintliche Echtheit; Videos lassen sich aufgrund der hohen Rechengeschwindigkeit der Programme inzwischen in Echtzeit faken.
Dass Stimmen verfälscht werden können ist ebenfalls keine Neuheit. Bei Musikproduktionen wird das seit gefühlten Ewigkeiten so umgesetzt. Allerdings keinesfalls in der aktuellen Perfektion mit verblüffender und kaum zu unterscheidender Echtheit der Stimme. Für die Generierung solcher Klon-Stimmen genügen der KI winzige Wortfetzen der Originalperson als Vorlage. Auch die Stimmen lassen sich in Echtzeit fälschen.
Verbraucherzentralen, KI-Experten, die Polizei und etliche weitere Entitäten empfehlen, bei unerwarteten Anrufen oder Nachrichten skeptisch bis misstrauisch zu reagieren. Ebenso sollte auf ungewöhnliche Muster, wie merkwürdige Formulierungen oder schlechte Grammatik geachtet werden. Dies seien Anzeichen dafür, dass ein Anruf oder eine Nachricht gefälscht sein könnte.
Grundsätzlich gilt wie auch zuvor: Niemals sollten sensible Daten wie Passwörter, Kreditkartennummern oder Bankdaten über Telefon, per E-Mail oder Chat-Nachricht weitergegeben werden. Und wenn nur die geringsten Zweifel an der Authentizität des Gegenüber bestehen, ist es dringend angeraten, die Person wie etwa den Sohn oder den Enkel über eine bereits bekannte Rufnummer zurückzurufen. Die dürfte in den allermeisten Fällen von der Kontaktaufnahme nichts wissen. Auch sollten sich Menschen, die von unbekannten Nummern angerufen oder angeschrieben werden, nicht äußern. Die eigene Stimme könnte wieder als Vorlage für den nächsten Klon dienen.





Freepik / DelmeNews





Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!