Menschliche Gehirn erkennt Deepfakes: Unternehmen sollten Mitarbeitende schulen
Fulda, 07.08.2023 – Spätestens seit dem Telefonat von Berlins früheren Regierenden Bürgermeisterin Franziska Giffey mit dem gefälschten Vitali Klitschko dürfte klar sein: Die Fähigkeit, Videos und Sprachaufnahmen überzeugend zu fälschen, eröffnet Cyberkriminellen Möglichkeiten für Betrug und Manipulation.
„Die steigende Qualität von Deepfakes und die breitere Verfügbarkeit von Tools und Technologien zur Erstellung solcher Inhalte machen es möglichen Angreifern einfacher, gefälschte Videos, Bilder oder Sprachaufnahmen zu erstellen. Tatsächlich wurden laut Global Incident Response Threat Report von VMware 2022 im Vergleich zum Vorjahr 13 Prozent mehr Deepfake-Attacken registriert“, warnt Patrycja Schrenk, Geschäftsführerin der PSW GROUP ( www.psw-group.de ).
Beruhigend stimmen deshalb die Ergebnisse einer Forschergruppe der University of Sydney, auf die die IT-Sicherheitsexpertin verweist: Diese hat kürzlich Durchbrüche zielt, bei denen Deepfakes über das menschliche Gehirn erkannt worden sind. Der Ansatz beläuft sich hierbei auf die Messung der Hirnströme mithilfe von EEG (Elektroenzephalografie), um festzustellen, ob das Gehirn Unterschiede zwischen echten und gefälschten Inhalten wahrnimmt.
„Bei dem Experiment konnte das Forscherteam feststellen, dass bestimmte Bereiche des Gehirns, wie der präfrontale Kortex und der Temporallappen, auf gefälschte Inhalte anders reagierten, als auf Originale. Diese Unterschiede wurden im Muster der Hirnströme deutlich, die auf eine höhere kognitive Verarbeitung und eine erhöhte Aufmerksamkeit hinwiesen. Das Ergebnis legt den Anschein, dass wir einen natürlichen Detektor gegenüber gefälschten Medienmaterial besitzen“, informiert Schrenk über die Forschungsergebnisse. Sie zeigt sich zuversichtlich: „Die Erkenntnisse sind vielversprechend und weisen in die richtige Richtung für die Erkennung von Deepfakes. Durch die Integration von Hirnstrommessungen und maschinellen Lernen könnte zukünftige Systeme mit speziell entwickelten Algorithmen in der Lage sein, Deepfakes mit einer höheren Genauigkeit zu identifizieren und das Vertrauen der digitalen Medien wiederherzustellen.“ Doch wie die Technologie selbst, steckt auch diese Technologie noch in den Kinderschuhen und muss entsprechend erforscht und weiterentwickelt werden.
Der Rat der Expertin: „Oft können schon Kleinigkeiten die fast perfekte Täuschung auffliegen lassen. Es gibt einige Merkmale, an denen sich Deepfakes erkennen lassen. Dazu gehören zum Beispiel seltsam aussehende Haare, besonders an den Rändern, Unstimmigkeiten bei der Synchronisierung von Lippen-, Audio- und Gesichtsbewegungen, Verzerrungen oder Verwerfungen sowie Ungereimtheiten in jedweder Hinsicht. Auch sollten die Beleuchtung und die Schatten zueinander passen und realistisch aussehen.“
Tatsächlich stellen Deepfake-Angriffe für Unternehmen eine ernsthafte Bedrohung dar, die weitreichende Auswirkungen auf die IT-Sicherheit und die Gesellschaft haben kann. Das detaillierte Vorgehen bei Deepfake-Angriffen umfasst die Datensammlung, Datenvorverarbeitung, Modellierung, Erstellung und Verbreitung von gefälschtem Inhalt. Um diese Bedrohung der Deepfake-Angriffe einzudämmen, ist eine umfassende Strategie im Bereich der Awareness Schulungen erforderlich, die auf Aufklärung, technologischen Lösungen, Authentifizierung, Zusammenarbeit und schneller Reaktion basiert.
„Für Unternehmen bedeutet dies, ihre Mitarbeitenden darüber zu schulen, wie sie Deepfakes erkennen können und sie auf den neusten Stand der Technik zu bringen, um die aktuellen Bedrohungen kennen, erkennen und vermeiden zu können. Erst durch entsprechende Maßnahmen und stetige Wiederholungen weiß jeder und jede Einzelne im Unternehmen, worauf auch „im Schlaf“ zu achten ist, um einen Angriff gar nicht erst entstehen zu lassen bzw. ihn einzudämmen. Es gibt bereits einige Online-Tools und Softwarelösungen, die dabei helfen können, Deepfakes zu identifizieren“, so Schrenk. Ihr persönlicher Tipp: „Ich empfehle, die eigene öffentliche Präsenz in den sozialen Medien einzuschränken. Es ist wichtig, es den Cyberkriminellen nicht zu einfach zu machen, das eigene Aussehen nachzubilden oder die eigene Stimme auf der Grundlage der öffentlich zugänglichen Daten zu stehlen.“