Sie sind hier:

Manipulierte Videos - Wie Deep Fakes die Welt gefährden

Datum:

Künstliche Intelligenz wird nahezu jeden Bereich unseres Lebens verändern. Dieselbe Technologie kann aber auch zur existentiellen Bedrohung werden.

Ganze Videos können per "Deep Fake" immer besser und effizienter manipuliert werden. Heute+ zeigt, warum das im Netz schnell zur Gefahr werden kann.

Beitragslänge:
2 min
Datum:

"Für Artificial Intelligence werden Dir die Millionen hinterhergeworfen": Ein Strahlen geht über das Gesicht von Hao Li. Der Chef von PinScreen arbeitet in einer der profitabelsten Branchen der Welt, die wohl die größte Revolution seit der Elektrifizierung im 19. Jahrhundert vorantreibt. Künstliche Intelligenz wird nahezu jeden Bereich unseres Lebens verändern - im Guten wie im Schlechten. Hao Li erforscht für die Film- und Computerspielindustrie, wie sich Bilder perfekt manipulieren lassen. Aber gleichzeitig teilt er seine Erkenntnisse mit amerikanischen Regierungsbehörden, weil dieselbe Technologie auch zur existentiellen Bedrohung werden kann, durch Deep Fakes: gefälschte Videos, die fast nicht mehr als Fälschung entlarvt werden können.

Es entsteht ein Avatar, der wie Putin aussieht

Li ist in Saarbrücken geboren, hat in Karlsruhe studiert, eine Weile in der US-Filmbranche gearbeitet und lehrt nun als Professor an der University of Southern California (USC). Im Büro seiner Firma in Los Angeles erzählt er uns, was bereits jetzt technisch alles möglich ist: "Man kann heute schon einen Live-Skype-Chat haben, wo man jemand anderes sein kann; und man könnte irgendetwas Falsches sagen, was diese Person niemals gesagt hätte, irgendetwas Falsches tun, was diese Person niemals getan hätte - nicht nur als Video, man kann es sogar live übertragen."

Und dann zeigt er uns, wie ein Deep Fake entsteht. Zuerst soll ich vor der Kamera des Computers Grimassen schneiden, damit der Rechner meine Gesichtszüge, meine Mimik aufs Genaueste analysieren kann. Dann liest Li ein Foto von Wladimir Putin ein und schon entsteht im Computer ein Avatar, der wie Putin aussieht und sich bewegt - aber meine Worte spricht.

Schon in den ersten Minuten unserer Spielerei wird deutlich, wie ernst sie werden kann. Was, wenn irgendjemand als gefälschter Weltenführer einen anderen per Deep Fake provoziert. Donald Trump, der ja Provokationen nicht ganz abgeneigt scheint, könnte beispielsweise dem nordkoreanischen Diktator Kim Jong Un seine Ermordung durch die CIA ankündigen. Was, wenn der dann präventiv die Knöpfe drückt? Ein Atomkrieg? Man mag gar nicht daran denken.

Manipulationen bald per App möglich

Schon jetzt tauchen in den sozialen Medien immer wieder solche Fakes auf. Barack Obama, der Donald Trump einen Scheißkerl nennt. Gesicht, Mimik, Stimme, alles passt, aber gesprochen wird der Text von einem Schauspieler. Oder das Musikvideo, in dem Präsidenten und Premierminister friedensbeseelt John Lennons "Imagine" intonieren. Oder das Video einer lallenden Nancy Pelosi, der demokratischen Fraktionschefin im US-Repräsentantenhaus. Das Material wurde auf 75 Prozent verlangsamt, die Höhe ihrer Stimme angepasst, die Fälschung von einem Berater Donald Trumps weiterverbreitet.

In rund einem Jahr, so schätzt Li, werden solche Manipulationen in noch viel besserer Qualität per App möglich sein - für jedermann. PinScreen entwickelt gerade solch eine App, allerdings für einen kommerziellen Zweck: Bekleidungsunternehmen bieten ihren Kunden an, die Kleidungsstücke als Avatare anzuprobieren - ein Milliardengeschäft, das die Entwicklung der Technologie vorantreibt.

Artificial Intelligence - Verteidigung gegen Fälschungen

Aber auch Militär und Geheimdienste mischen mit. Das amerikanische Verteidigungsministerium sieht in Deep Fakes eine Bedrohung für die Sicherheit der USA. DARPA, die Forschungsabteilung des Pentagon, investiert 70 Millionen Dollar, um mit Hilfe Künstlicher Intelligenz gefälschte Videos zu entlarven. Es geht um die Verteidigung gegen Fälschungen, aber natürlich könnten die Forschungserkenntnisse auch für den Angriff verwendet werden. Für die kommenden Jahre stehen für Artificial Intelligence mehrere Milliarden Dollar im Haushalt bereit.

Computer können, anders als Menschen, allerkleinste Abweichungen zwischen natürlichen und künstlichen Bewegungen und Tönen erkennen. Lippen, Mimik, Tonfrequenzen werden analysiert, ob sie zueinander passen, so erklärt es uns Matt Turek, der bei der DARPA die Abteilung Medienforensik leitet. Manipulationen im Bildmaterial können auch über Veränderungen in den Pixeln, den Bildpunkten von Fotos und Videos entdeckt werden oder in Wärmemustern. Aber dafür müssen die Großrechner mit Hunderttausenden von Bildbeispielen gefüttert werden. "Wir wollen", so Turek, "die Prüfung automatisieren, damit nicht bei jedem Video ein Mensch entscheiden muss, ob es manipuliert wurde". Bildmaterial könnte auf diese Weise von Plattformen, die sie verbreiten, ein Gütesiegel bekommen.

Es ist ein doppelter Wettlauf: Denn je besser die Fälschungen sind, desto besser muss auch die Technologie zur Entlarvung der Fakes werden.

Menschen retweeten eher Falschheiten als Fakten

Gleichzeitig treten die Aufklärer gegen einen Grundzug der menschlichen Natur an. Tatsächlich verbreiten sich im Social-Media-Zeitalter Lügen und Fälschungen weiter, breiter und tiefer als die Wahrheit. Das ergab eine wissenschaftliche Untersuchung, die im März 2018 im Magazin "Science" veröffentlicht wurde. Demnach gibt es eine um 70 Prozent höhere Wahrscheinlichkeit, dass Menschen eher Falschheiten retweeten als Fakten. Das hängt in erster Linie mit der menschlichen Natur zusammen. Wir machen unsere Entscheidung zur Weitergabe von der Neu- und Andersartigkeit der Information abhängig. Wenn sie abweicht vom Normalen, wenn sie noch nicht vorher irgendwo aufgetaucht ist, dann teilen wir sie schneller, unabhängig von ihrem Wahrheitsgehalt.

Die Verbreitung von Falschnachrichten und damit auch Deep Fakes schreitet voran, selbst wenn die Verbreiter oder die benutzten Netzwerke sich eher der Wahrheit verpflichtet fühlen. Noch schwieriger wird es, wenn Politiker wie Donald Trump dann selbst ständig lügen und damit ein gesellschaftliches Klima erzeugen, in dem manche gar nichts mehr und andere alles glauben wollen.

Deep Fakes könnten Kriege auslösen

"Infokalypse" - so nennt es Aviv Ovadya. Wir treffen den Experten für Internetsicherheit in San Francisco, wo er mit anderen Wissenschaftlern eine Initiative zur Aufklärung der Öffentlichkeit startet. Aviv glaubt, dass eine Überflutung mit Falschinformationen unsere Welt an den Abgrund bringen wird: "Wenn ein Land unter Hochspannung steht, dann kann die Manipulation der Wahrnehmung von dem, was gerade geschieht, sehr ernste Folgen haben. Ja, es kann sogar zu Krieg führen."

Die Vorstufe zum Krieg sieht Aviv jetzt schon in der schrumpfenden Bereitschaft, für Demokratie und Freiheitswerte einzutreten und den Populismus zu bekämpfen: "Die Menschen könnten einfach aufgeben. Eine Wirklichkeitsapathie - sie wollen sich nicht mehr damit beschäftigen, was echt ist und was nicht. Und igeln sich dann ein in ihre lokale Umgebung, in der sie jeden kennen und wissen, was vor sich geht." Aber selbst im Privaten gibt es kein Entkommen. Das ist die Botschaft von Noelle Martin. Die junge Australierin wurde Opfer eines Deep Fakes. Irgendjemand nahm ein Foto der damals 17-Jährigen und montierte ihr Gesicht in Pornobilder und -videos. Sogar Fotos ihrer kleinen Schwester wurden in Pornos rund um die Erde verbreitet.

Mehrjährige Haftstrafen in Australien

In Australien ist dieser Missbrauch von Gesichtern jetzt verboten und wird, auch dank Noelle Martin, mit mehrjähriger Haft bestraft. Sie hatte sich mit anderen Aktivisten für ein entsprechendes Gesetz engagiert. Aber das reicht der jetzt 22-Jährigen noch nicht. Weil das Internet keine Grenzen kennt, fordert sie eine globale Initiative gegen Fakes im Rahmen der Vereinten Nationen: "Wir brauchen eine globale, kollektive Antwort. Ich möchte in einer Welt leben, in der wir Medien und die Nachrichten konsumieren und glauben können, dass sie wahr sind. Diese Technologie untergräbt das."

Auch Hao Li treibt die dunkle Seite der Deep Fakes um. Sie können als Werkzeug dienen in autoritären Systemen. Diese haben auch die beste Ausgangsposition, um neue, noch perfektere Fälschungsmethoden zu entwickeln. Denn Künstliche Intelligenz basiert auf riesigen Datenmengen, damit die Großrechner lernen können. In Ländern, in denen es keinen Schutz der persönlichen Daten gibt, schöpfen die Macher von Deep Fakes aus dem Vollen. Auch deshalb teilt Li seine Forschungsergebnisse mit US-Behörden, damit sie die "Infokalypse" vielleicht doch verhindern können.

Elmar Theveßen ist ZDF-Korrespondent und Leiter des ZDF-Studios in Washington.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.