Deine IP: Unbekannt · Dein Status: GeschütztUngeschütztUnbekannt

Weiter zum Hauptinhalt

Was ist ein Deepfake und wie erkennt man ihn?

Deepfakes sind Videos, die mithilfe von künstlicher Intelligenz gefälscht wurden und ein wachsendes Problem für Regierungen, Strafverfolgungsbehörden und Privatpersonen darstellen. Diese Inhalte können sehr überzeugend sein und uns in Frage stellen lassen, was real ist und was nicht. Aber was ist Deepfake-Technologie genau? Und warum ist sie so gefährlich?

Was ist ein Deepfake und wie erkennt man ihn?

Was ist ein Deepfake?

Die Deepfake-Technologie kann überzeugende Videos von Menschen, einschließlich Politikern und Prominenten, erstellen, in denen sie Dinge zu sagen und zu tun scheinen, die sie in Wirklichkeit nie getan haben. Deepfake-Programme sind relativ leicht zugänglich und einfach zu bedienen und könnten schon bald eine wichtige Rolle in der Filmindustrie spielen.

Kombiniert man dies mit der Tatsache, dass Systeme der künstliche Intelligenz auch den Klang bestimmter menschlicher Stimmen auf die gleiche Weise nachbilden können, wird ein gutes Deepfake zu einem wirkungsvollen – und potenziell gefährlichen – Tool.

Wie funktionieren Deepfakes?

Deepfakes werden mit künstlicher Intelligenz hergestellt, die einen Prozess namens Deep oder Machine Learning nutzen, um Medien zu analysieren und neu zu erstellen. In einigen Fällen verwenden diese Deep-Learning-Systeme sogenannte Generative Adversarial Networks. Dabei wird das KI-Netzwerk in zwei Komponenten aufgeteilt, die miteinander konkurrieren, um zu lernen und ihren Output zu verbessern.

Bei einem Deepfake handelt es sich in der Regel um Videomaterial von einer Person, meist einem Schauspieler. Dieser ist nur die Vorlage, auf die später ein anderes Gesicht projiziert wird. Die künstliche Intelligenz sieht sich dann Hunderte von Bildern einer anderen Person an und bildet deren Gesichtszüge realistisch nach. Das Bild des neuen Gesichts wird dann auf die Bewegungen des Schauspielers abgebildet, wobei Mimik und Lippenbewegungen synchronisiert werden.

Die Deepfake-KI wird zwar noch verfeinert und verbessert, aber sie ist bereits sehr weit fortgeschritten und kann mit minimaler menschlicher Kontrolle schnell Ergebnisse liefern.

Welche Arten von Deepfakes gibt es?

Deepfakes können in unterschiedlicher Art und Form auftreten. Im Folgenden zeigen wir dir, welche das sind.

Textuelle Deepfakes

Textuelle Deepfakes sind Texte, die mit Hilfe von KI erstellt wurden. Diese Art von Deepfakes kann zum Beispiel dazu verwendet werden, um gefälschte Nachrichten oder E-Mails fürs Phishing zu erstellen. Textuelle Deepfakes werden oft durch Natural Language Processing (NLP) Technologien erstellt, die es der KI ermöglichen, menschenähnliche Texte zu erstellen.

Deepfake-Video

Video-Deepfakes ist besonders problematisch, da sie oft zur Verbreitung von gefälschten Informationen und Bildern verwendet werden. Video-Deepfakes werden oft mit Hilfe von Deep-Learning-Technologien erstellt, die es der KI ermöglichen, Gesichter und Bewegungen von Personen in Echtzeit zu analysieren und zu manipulieren. Diese Videos werden zum Beispiel auf Plattformen wie YouTube und seinen Alternativen geteilt.

Deepfake-Audio

Audio-Deepfakes sind gefälschte Audioaufnahmen, die mit Hilfe von KI erstellt wurden. Diese Art von Deepfakes kann zum Beispiel dazu verwendet werden, um gefälschte Telefonate oder Sprachnachrichten zu erstellen. Audio-Deepfakes werden oft mit Hilfe von generativen Modellen erstellt, die es der KI ermöglichen, menschenähnliche Stimmen zu erzeugen.

Deepfakes in Social-Media-Kanälen

Deepfakes in Social Media sind Fake-Inhalte, die in sozialen Netzwerken verbreitet werden. Diese Art von Deepfakes kann zum Beispiel dazu verwendet werden, um politische Meinungen oder öffentliche Wahrnehmungen zu manipulieren. Deepfakes in Social Media werden oft mit Hilfe von manipulierten Bildern oder Videos erstellt, die mit gefälschten Untertiteln oder Texten kombiniert werden.

Echtzeit- oder Live-Deepfakes

Echtzeit- oder auch Live-Deepfakes sind manipulierte Videos oder Bilder, die in Echtzeit erstellt werden. Hierbei wird eine KI-Technologie verwendet, um das Gesicht einer Person live auf das Gesicht einer anderen Person zu projizieren. Eine Echtzeit-Deepfake-Technologie kann beispielsweise eingesetzt werden, um einem Schauspieler oder einer Schauspielerin ein anderes Aussehen zu geben, während er oder sie vor der Kamera steht. Ein weiteres Anwendungsgebiet ist das Streaming von Videospielen, bei denen ein Streamer sein Gesicht in das Spiel integrieren kann.

Welche Gefahren gehen von Deepfakes aus?

Die Deepfake-Technologie kann eine Gefahr der Cybersicherheit für Einzelpersonen und die Gesellschaft insgesamt darstellen. Überzeugende Deepfake-Videos können extrem gefährlich sein, wenn sie aus politischen Gründen oder fürs Cybermobbing erstellt und online geteilt werden. Im Folgenden zeigen wir dir genauer, welche Gefahren Deepfakes bergen.

Fake News und Propaganda

Ein überzeugendes Deepfake-Video kann als Propaganda verwendet werden, um politische Gegner und rivalisierende Regierungen zu unterminieren. Ein Beispiel: Kurz nach der russischen Invasion in der Ukraine tauchten Deepfake-Videos im Internet auf, die den ukrainischen Präsidenten bei der Kapitulation zeigten.

Dieses Video wurde zwar als Fälschung entlarvt, aber es ist leicht vorstellbar, wie gefährlich diese Fakes sein könnten, sobald die Technologie ausgefeilter wird. Ein Deepfake könnte dazu verwendet werden, einen politischen Gegner zu verleumden und Wähler zu beeinflussen. Wenn die Entdeckung eines Deepfake-Videos unmöglich wird, haben Fake News das Potenzial, noch mehr Misstrauen in die Medien zu schüren.

Betrug

Die Deepfake-Technologie könnte auch genutzt werden, um Menschen dazu zu bringen, private Informationen preiszugeben oder sogar Geld zu verschenken. Wenn du eine Facebook-Nachricht von einem Freund erhältst, in der er erklärt, dass er im Ausland gestrandet ist und dringend finanzielle Unterstützung braucht, kommst du vielleicht noch darauf, dass es sich um einen Phishing-Angriff handeln könnte.

Jetzt stell dir das gleiche Szenario vor, aber statt einer Nachricht bekommst du ein völlig überzeugendes Video deines Freundes geschickt. Der Ton und das Video scheinen echt zu sein; du hast jetzt einen scheinbar visuellen Beweis dafür, dass er wirklich an einem Flughafen festsitzt und nicht genug Geld für das Ticket nach Hause hat. Dann sieht die Sache schon ganz anders aus.

Dank der immer besser werdenden Technologie könnten Betrüger bald diese überzeugenden Videos nutzen, um den Identitätsdiebstahl zu erleichtern und weitere Betrügereien durchzuführen.

Wie erkenne ich Deepfakes?

Es ist nicht immer leicht, einen Deepfake zu erkennen. Mehrere Faktoren können dir dabei helfen, zu ermitteln, ob du ein Video fake ist oder nicht, vor allem, wenn Gesichter und Menschen darauf zu erkennen sind:

  • Glatte oder unscharfe Flecken. Die Verbindungspunkte, an denen die Überlagerung des Deepfake-Videos auf das Gesicht der darunter liegenden Person trifft, können manchmal seltsam glatt und texturlos erscheinen. Selbst bei guten Fakes können plötzliche Kopfbewegungen oder Lichtveränderungen kurzzeitig verschwommene Gesichtsränder zum Vorschein bringen.
  • Ungenaue Details, die nicht das Gesicht betreffen. Wenn das Video eine Person des öffentlichen Lebens darstellt, z. B. einen Politiker, kannst du im Internet Bilder dieser Person zum Vergleich finden. Achte auf Hinweise, die nicht das Gesicht betreffen, die möglicherweise nicht verändert wurden: Hände, Haare, Körperform und andere Details, die zwischen dem fraglichen Video und älteren, zuverlässigeren Bildquellen nicht übereinstimmen.
  • Unnatürliche Bewegungen. Zumindest im Moment sehen Deepfakes am überzeugendsten aus, wenn sich die Person nicht zu viel bewegt. Wenn der Körper und der Kopf der Person seltsam steif wirken, könnte das ein Zeichen dafür sein, dass die Ersteller des Videos versuchen, es der Deep-Learning-KI leichter zu machen, ein Bild auf das Gesicht der Person abzubilden.
  • Eine nicht überzeugende Stimme. Die Deepfake-Technologie entwickelt sich rasant weiter, aber im Moment scheint das Training von Computern zur Erstellung von Audio-Simulationen zu schlechteren Ergebnissen zu führen als die Erstellung von überzeugenden Deepfake-Bildern und -Videos. Der Ersteller des Deepfakes muss sich zwischen zwei Möglichkeiten entscheiden, wenn er möchte, dass die Person spricht – entweder er verwendet eine KI-generierte Stimme oder einen Schauspieler, der die richtige Stimme nachahmen kann. Diese Stimme lässt sich mit der Stimme der realen Person vergleichen.

Wie sieht die Zukunft von Deepfakes aus?

Es wird immer schwieriger werden, Deepfakes zu erkennen, je besser die Technologie wird. Wenn wir den Punkt erreichen, an dem viele Menschen einfach mit einem Computer und einem Grundverständnis von VFX-Software ein Video produzieren können, könnte unsere Realität zunehmend verzerrter werden.

Schon jetzt ist es schwer, Deepfakes zu erkennen, aber schon bald könnte es unmöglich werden. In einem polarisierten politischen Klima ist es nicht unwahrscheinlich, dass ein Deepfake als Teil einer verdeckten Wahlkampfstrategie oder für einen Cyberkrieg eingesetzt wird.

Eine einfache Maßnahme, die du heute ergreifen kannst, um den Risiken von Deepfake-Betrügern entgegenzuwirken, ist die Begrenzung der Anzahl der Bilder, die du online stellst. Um ein überzeugendes, von der KI generiertes Video zu erstellen, muss das System auf Fotos und Filmmaterial der betreffenden Person zugreifen, das es nachzubilden versucht. Wir empfehlen dir, deine Social-Media-Profile privat zu halten und es zu vermeiden, regelmäßig Bilder von deinem Gesicht zu posten.