Unbekannte verbreiten im Netz Deepfake-Videos des ukrainischen Präsident Selenskyj und Russlands Präsident Putin. Wir zeigen, woran man die Fälschungen erkennt.
Deepfake-Videos sind eine Propagandawaffe der Zukunft: Künstlich erstellte Videos, in denen Personen Dinge in den Mund gelegt werden, die sie nie gesagt haben. Mit auf den ersten Blick täuschend echten Gesichtsregungen. Immer wieder wird von Experten die Sorge geäußert, dass sie in Wahlkämpfen oder Konflikten bald eine zentrale Rolle spielen könnten. Eingetreten ist das noch nicht. Der Krieg in der Ukraine zeigt, wie gefährlich Deepfake-Videos für die sein können, die sie nicht als Fälschung erkennen.
Was behauptet das Fake-Video und was sagt der echte Selenskyj?
In einem in den sozialen Medien kursierenden Deepfake spricht ein künstlich erzeugter ukrainischer Präsident Wolodymyr Selenskyj: "Es gibt kein Morgen mehr. Zumindest nicht für mich. Jetzt treffe ich noch eine schwierige Entscheidung: Mich von euch zu verabschieden. Ich rate [euch] die Waffen niederzulegen und zu euren Familien zurückzukehren. In diesem Krieg lohnt es sich nicht zu sterben."
Der echte Selenskyj reagierte am Mittwoch kurz darauf mit einem Handyvideo auf seinen offiziellen Kanälen:
Ausschnitte aus dem Deepfake-Video, Selenskyjs Richtigstellung und woran man die Fälschung erkennt, sehen Sie hier:
Unbekannte verbreiten im Netz ein Deepfake-Video, in dem der ukrainische Präsident Selenskyj vermeintlich zur Kapitulation aufruft.
Woher stammt das gefälschte Video?
Ursprünglich verbreitet wurde das Video über die gehackte Webseite des ukrainischen Nachrichtensenders Ukraine 24. Am Mittwochnachmittag war die reguläre Webseite nicht erreichbar. Anstatt der Startseite stand dort der gefälschte Aufruf Selenskyjs. Auf seinem Youtube-Kanal verbreitete der Sender jedoch ebenfalls die Richtigstellung des Präsidenten.
-
Für den Hack der Webseite und das Erstellen des Deepfake-Videos hat bislang noch niemand die Verantwortung übernommen. Seit Jahren werden im Rahmen des Russland-Ukraine-Konflikts regelmäßig Webseiten von wichtigen Institutionen angegriffen. Zuletzt hatten im Januar mutmaßlich russische Angreifer zahlreiche ukrainische Regierungsseiten mit gefälschten Botschaften manipuliert.
Putin verkündet Sieg in gefälschtem Video
Kurz nach der Veröffentlichung des gefälschte Selenskyj-Videos wurde am Mittwoch auch ein vergleichbares Video des russischen Präsidenten Wladimir Putin verbreitet, ebenfalls ein Deepfake. Darin verkündet Putin, der Krieg sei beendet und man habe "Frieden mit der Ukraine" geschlossen. Es werde sogar schon gemeinsam mit den USA und der EU am "Wiederaufbau der Infrastruktur der ukrainischen Regionen" gearbeitet.
In diesem Deepfake-Video von Russlands Präsident verkündet Putin den angeblichen Sieg seiner Armee in der Ukraine. Es ist aber ebenfalls eine Fälschung.
Das Video basiert auf Putins Rede an die Nation vom 21. Februar. Hintergrund und Körper wurden daraus übernommen. Deutlich zu erkennen ist das, weil Handbewegungen und Schulterzucken exakt identisch sind mit dem neuen Deepfake-Video. Nur der Kopf bzw. das Gesicht und das Gesagte wurden digital verändert.
Facebook löscht Selenskyj-Deepfake
Der Facebook-Konzern Meta hat das gefälschtes Selenskyj-Video bereits am Mittwoch identifiziert und entfernt, . "Wir haben dieses Video schnell überprüft und entfernt, da es gegen unsere Richtlinie gegen irreführende, manipulierte Medien verstößt", erklärte Meta-Sicherheitschef Nathaniel Gleicher auf Twitter. Außerdem habe man die Kollegen auf anderen Internet-Plattformen über die Fälschung informiert.
Die ukrainische Regierung hatte bereits vor zwei Wochen auf Facebook davor gewarnt, dass Russland die Deepfake-Technologie bei seinen Versuchen einsetzen werde, die Regierung Selenskyj zu stürzen. "Sein Ziel ist es, die Bürger zu verwirren, Panik zu verbreiten und unsere Truppen zum Rückzug zu bewegen", schrieb die Regierungsbehörde.
Wie erkennt man ein Deepfake-Video?
Ein glaubwürdiges Deepfake-Video zu erstellen, ist nicht einfach. Bei unsauberer Arbeit wirkt das Ergebnis häufig seltsam roboterartig. So auch im Fall des vermeintlichen Selenskyj-Videos.
Teils fehlen Schattenwürfe und insbesondere in der zweiten Hälfte des Videos springen die Gesichtsanimationen deutlich von Bild zu Bild. Das gesamte Gesicht wirkt wie digital eingefügt. "Ich sollte nicht lachen, aber dieser Deepfake von [Selenskyj] ist lächerlich, ich kann nicht aufhören zu kichern. (...) Wenn ihr euch die Mühe macht, passt den Hals wenigstens an das Gesicht an", schreibt etwa die Expertin für Desinformation Jane Lytvynenko auf Twitter.
[Sehen Sie hier im Video, welche Gefahren von Deepfake-Videos ausgehen:]
Die Montage von Gesichtern in Videos stellt eine Gefahr für Politiker, Prominente und Privatpersonen dar – aber auch für demokratische Prozesse.
Bei einer weitreichenden Aussage, wie einer ukrainischen Kapitulation, sollten sich Nutzer stets fragen: Wie wahrscheinlich ist es, dass sie auf diese Weise verbreitet wird - während offizielle Stellen schweigen und internationale Medien nicht berichten? Mit dem technologischen Fortschritt könnten Internetnutzer womöglich bald häufiger mit Deepfakes konfrontiert werden.
Eine Möglichkeit, Videos sebst zu überprüfen, bietet die Website deepware.ai: Dort können Videos oder Links zu Videos hochgeladen werden und man erhält eine Einschätzung, ob es sich dabei um Deepfakes handelt.
Aktuelle Meldungen zu Russlands Angriff auf die Ukraine finden Sie jederzeit in unserem Liveblog:
Liveblog- Aktuelles zum Krieg in der Ukraine
Russlands Angriff auf die Ukraine dauert an. Es gibt Sanktionen gegen Moskau, Waffen für Kiew. Aktuelle News und Hintergründe zum Krieg im Blog.