ZDFheute

Deepfakes – darum sollten wir besorgt sein

Sie sind hier:

Künstliche Intelligenz - Deepfakes – darum sollten wir besorgt sein

Datum:

Deepfakes, also mit künstlicher Intelligenz hergestellte Fake-Videos, fluten das Internet. Sie lassen sich immer leichter herstellen. Worin bestehen die drei größten Gefahren?

Die Montage von Gesichtern in Videos stellt eine Gefahr für Politiker, Prominente und Privatpersonen dar – aber auch für demokratische Prozesse.

Beitragslänge:
3 min
Datum:

Jedes Video kann heute eine Lüge sein. Deepfakes wirken wie realistische Aufnahmen - sind aber gefälscht. Inzwischen kann jeder mit entsprechender Software täuschend echt wirkende Videos herstellen, in denen Gesichter von Menschen vertauscht werden, Personen Dinge sagen, die sie nie gesagt haben oder Handlungen vornehmen, die sie nie vollzogen haben.

Was hat es für Auswirkungen auf Politik und Gesellschaft, wenn Video- oder Audioaufnahmen nicht länger als eindeutige Beweise für die Realität gelten können?

1. Deepfakes als Waffe gegen Frauen

Das niederländische Unternehmen Deeptrace untersuchte im vergangenen Jahr rund 15.000 Deepfake-Videos. 96 Prozent der Filme waren Pornografie - in den meisten Fällen wurden Hollywoodschauspielerinnen oder berühmte Popsängerinnen in Sexfilme montiert. Auch in Deutschland ein Problem: Opfer von Deepfake-Pornos wurde beispielsweise bereits die Sängerin Lena Meyer-Landrut.

Aber auch Privatpersonen können betroffen sein: In Australien wurde Noelle Martin Opfer eines Deep Fakes. Jemand nahm ein Foto der damals 17-Jährigen und montierte ihr Gesicht in Pornobilder und -videos. Noelle Martin wehrte sich - mit Erfolg. Zusammen mit anderen Aktivisten engagierte sie sich für eine Verschärfung von Gesetzen. Seit 2018 sind solche Deepfakes in Australien verboten und werden mit mehrjähriger Haft bestraft.

2. Deepfakes können Menschen aufhetzen

Das Potential für Missbrauch ist groß, insbesondere in Sozialen Netzwerken, wo sich Falschnachrichten rasend schnell verbreiten. Martin Steinebach ist Deepfake-Experte beim Fraunhofer-Institut für Sichere Informationstechnologie in Darmstadt. Er sieht ein hohes Risiko, dass Deepfakes zur Unterstützung von Meinungsmache verwendet werden, vor allem in manchen Filterblasen.

Steinebach glaubt jedoch nicht, dass Deepfakes größere gesellschaftliche Verwerfungen bis hin zum einem Krieg zwischen Staaten auslösen können: Hollywood könne schon seit langer Zeit Imitationen plausibel hinbekommen, genau wie Geheimdienste.

Martin Steinebach kommt zu dem Schluss:

Wenn’s so einfach wäre, die Welt ins Chaos zu stürzen oder Länder gegeneinander aufzuwiegeln, dann wäre das wahrscheinlich schon passiert.
Martin Steinebach, Fraunhofer-Institut

Youtube, Facebook und Twitter haben Deepfakes bereits den Kampf angesagt und angekündigt, manipulierte Videos zu kennzeichnen oder sogar zu löschen. Denn insbesondere vor der US-Präsidentschaftswahl im November wächst die Sorge vor Falschinformationen im Netz, die Wähler manipulieren könnten. Der Druck auf Online-Dienste ist deshalb groß, gegen solche Falschinformationen vorzugehen.

Auch die Bundesregierung verfolgt die technische Entwicklung mit Sorge: "Es kann nicht ausgeschlossen werden, dass aufgrund der schnellen technologischen Fortschritte künftig auch eine Bedrohung demokratischer Prozesse durch Deep Fakes erfolgen kann", schreibt sie im Dezember in einer Antwort auf eine Anfrage der FDP-Fraktion im Bundestag.

Bislang galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Was, wenn wir unseren eigenen Ohren und Augen nicht mehr trauen können?

Deepfakes erschüttern unsere Realitätsgewissheit,

sagt Wiebke Loosen vom Hans Bredow-Institut für Medienforschung im ZDFheute-Interview. Heißt: Menschen verlieren das Vertrauen, dass sie irgendwie den Unterschied zwischen Realität und Fälschung erkennen können. Im Schreiben der Bundesregierung heißt es dazu: "Deep Fakes können das gesellschaftliche Vertrauen in die grundsätzliche Echtheit von Audio- und Videoaufnahmen und damit die Glaubwürdigkeit öffentlich verfügbarer Informationen schwächen."

3. Realität kann als Deepfake abgetan werden

Das Problem: Wenn jedes Video, jede Tonaufnahme eine Lüge sein kann, wird es für wirklich Schuldige einfacher, die Wahrheit als Fälschung abzutun. Und das ist auch bereits geschehen: Nachdem eine alte Tonaufnahme von Donald Trump in die Öffentlichkeit gelangte, in dem er sich abfällig über Frauen äußerte ("du kannst ihnen zwischen die Beine fassen"), entschuldigte sich Trump zunächst reumütig - nur um später die Echtheit der Aufnahme in Zweifel zu ziehen.

Mit Material von AFP

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Zur Merkliste hinzugefügt! Merken beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Um zu verstehen, wie unsere Webseite genutzt wird und um dir ein interessenbezogenes Angebot präsentieren zu können, nutzen wir Cookies und andere Techniken. Hier kannst du mehr erfahren und hier widersprechen.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, kannst du jetzt eine Altersprüfung durchführen. Dafür benötigst du dein Ausweisdokument.

Du wechselst in den Kinderbereich und bewegst dich mit deinem Kinderprofil weiter.