PSW GROUP warnt: Deepfakes gehören bald zum Standardrepertoire von Cyber-Kriminellen
Neben Malware, Ransomware, Phishing, Distributed-Denial-of-Service-Angriffen (DDoS) und Botnetzwerken gehören auch Deepfakes bald zum Standardrepertoire der Cyberkriminellen. Davor warnen die IT-Sicherheitsexperten der PSW GROUP (www.psw-group.de): „Die in den letzten Jahren stattfindende Digitalisierung und der technologische Fortschritt haben zu einer Weiterentwicklung der Technologie zur Fälschung medialer Identitäten und künstlichen Intelligenz geführt. Vor allem die sozialen Plattformen werden als neue Spielwiese zur Verbreitung des Deepfake Materials genutzt. Aber auch Unternehmen müssen sich mit Zahlungsbetrug mittels Deepfakes künftig dringend auseinandersetzen“, sagt Geschäftsführerin Patrycja Schrenk.
Bei Deepfakes nutzen Cyberkriminelle Desinformationskampagnen und gefälschte Inhalte, um die Öffentlichkeit zu täuschen. Neben der Desinformation und Manipulation erleichtern Deepfakes verschiedene Möglichkeiten krimineller Machenschaften: Besonders werden Deepfakes für diverse Arten von Betrug mittels Untergrabung visueller Identitätsprüfung, Demütigung im Internet bis hin zur Erpressung oder Beweismittelfälschung genutzt. „Deepfakes eignen sich besonders gut für alle kriminellen Aktivitäten, die Dokumentenbetrug und Identitätsfälschung als Grundlage haben. Beunruhigend ist, dass die Erstellung von Deepfake Videos bereits im Darknet als Dienstleistung angeboten wird. Die Erstellung manipulierter Audio- oder Video-Telefonate sind beispielsweise technisch bereits möglich“, warnt Schrenk. Die Konsequenz: Wenn der gefälschte Geschäftsführer mit dem vermeintlich richtigen Aussehen und der richtigen Stimme Anweisungen für Überweisungen gibt, hebt dies das Social Engineering und die Betrugsmöglichkeiten auf eine ganz neue Ebene.
„Die Qualität von Deepfakes hat sich mit dem technologischen Fortschritt mitentwickelt und mit der richtigen technischen Ausstattung, besonders durch hohe Grafikprozessoren, lassen sich heutzutage Deepfake Video- oder Tonaufnahmen auf den ersten Blick kaum von echten Inhalten unterscheiden oder erkennen“, informiert die IT-Sicherheitsexpertin.
Dennoch: Auch wenn ein erstellter Deepfake auf den ersten Blick zwar glaubwürdig erscheint, enthalten die meisten bei näherer Betrachtung Fehler und Unzulänglichkeiten. „Zu diesen Auffälligkeiten gehören unter anderem Unschärfe bei den Gesichtsrändern, fehlendes Augenblinzeln, falsche Lichtreflexionen in den Augen, falscher Schattenwurf, Unregelmäßigkeiten in der Haarstruktur, bei Venen und Narben sowie Unstimmigkeiten im Hintergrund, im Motiv, der schärfe oder Tiefe“, informiert Patrycja Schrenk und lenkt ein: „Einfach ist es nicht, Deepfakes mit bloßem Auge zu erkennen. Betrachtende müssen schon auf die Kleinigkeiten, Fehler und Unstimmigkeiten achten, um Fälschungen zu erkennen und zu entlarven. Für Unternehmen ist es daher das A und O, ihre Beschäftigten zu sensibilisieren.“
Zukünftig soll es jedoch auch Software zur Erkennung von Deepfake Bildmaterial geben, so beispielsweise der Deepfake Detector von Meta oder der Video Authenticator aus dem Hause Microsoft. Diese Programme arbeiten, wie auch die Deepfake-Generatoren, mit maschinellem Lernen und verarbeiten Daten in einem neuronalen Netzwerk. Und auch andere Plattformen wie Reddit oder TikTok arbeiten intensiv an der Bekämpfung von Deepfakes und nutzen eine Liste von Tools, diese aufzuspüren. „Dies Erkennungstools befinden sich auf einem hohem technischen Stand, aber auch die Cyberkriminellen entwickeln ihre Software zur Erstellung des Fake-Material weiter, so dass Erkennungstools auch getäuscht werden können. Der Wettlauf zwischen Tools zur Deepfake Erstellung und jenen zur Erkennung von Fälschungen hat gerade erst begonnen“, meint die IT-Sicherheitsexpertin.