Sie sind hier:

"Christchurch"-Gipfel - Algorithmen kennen keinen Terror

Datum:

Nach dem Anschlag von Christchurch verschärft Facebook Livestreaming-Regeln, Regierungen beraten zu Anti-Terror-Filtern. Das kann Terrorvideos nicht aus sozialen Netzwerken bannen.

Facebook Live
Facebook Live
Quelle: Reuters

Frankreichs Staatspräsident Emmanuel Macron will Europol so richtig Druck machen. Deren Netzabteilung soll Live-Übertragungen von Terrorangriffen mit effizienter Überwachungssoftware unterbinden.

Europol hat keine Software gegen Terror

Doch Steven Wilson, Chef der Cybercrime-Abteilung von Europol, zuckt da nur mit den Schultern. Die Zaubersoftware zur automatischen Erkennung terroristischer Inhalte im Netz gebe es nun mal nicht, sagte der leitende Europolizist kürzlich auf einer Sicherheitskonferenz in Brüssel.

Genau diese Software wollen die Staats- und Regierungschefs aber haben, die sich auf Initiative von Emmanuel Macron zum "Christchurch-Gipfel" im Élysée-Palast treffen. Vor zwei Monaten hatte ein australischer Rechtsextremist live per Facebook gestreamt, wie er in zwei Moscheen in der neuseeländischen Stadt Christchurch mehr als 50 Menschen tötet.

"Solche Terror-Videoübertragungen müssen verhindert werden", fordert die neuseeländische Premierministerin Jacinda Ardern. Und wie solche Live-Übertragungen und andere terroristische Inhalte von den Netzen ferngehalten werden können, darüber beraten jetzt die Regierungschefs mit Vertretern der Internet-Konzerne.

Theresa May mit leeren Händen

Die britische Premierministerin Theresa May hat sich extra von den Netzexperten des Government Communications Headquarters (GCHQ) in Cheltenham beraten lassen, bevor sie nach Paris reiste. Doch die konnten ihrer Premierministerin in Sachen algorithmischer Erkennung von terroristischen Inhalten auch nicht viel Mut machen.

Die Anti-Terror-Abteilung des GCHQ hatte nämlich umfangreich mit Mustererkennungssoftware zur Erkennung von Terrorvideos experimentiert. Dabei waren sie immer wieder auf den "Baby-Taliban-Effekt" gestoßen, mit dem auch Facebook zu kämpfen hatte.

Eine Zeitlang blockierten die Uploadfilter von Facebook nämlich Babyfotos, die frischgebackene Eltern auf die Plattform hochladen wollten, damit Verwandte und Bekannte den neuen Erdenbürger bestaunen konnten. Der Grund: Verdacht auf terroristische Inhalte. Die Algorithmen für die Bilderkennung konnten Babyfotos nicht von Bildern mit Taliban-Kämpfern unterscheiden. Beide trugen nämlich weiße Kleidung. Und die Künstliche Intelligenz der Mustererkennung hatte gelernt: Taliban-Kämpfern erkennt man an ihrer weißen Kleidung.

Sensor-Datenbank war ein Flop

Die entsprechenden Filter wurden dann abgeschaltet. Stattdessen bauten die Netzexperten des GCHQ eine Datenbank mit den Kameradaten der mutmaßlichen Terroristen auf. "Bei jeder Foto- oder Videoaufnahme werden gewisse Fehler des Sensors von der Kamera mit in das Bild eingefügt", erläutert der Dresdner Forensiker Jakob Hasse das dahinterliegende Prinzip.

Jede Kamera hat dabei ihre individuellen Sensorfehler. Damit erstellte Fotos oder Videos können so erkannt werden. Die britischen Anti-Terror-Experten hatten eine Datenbank mit den Sensorfehlern von Kameras aufgebaut, die mutmaßliche Terroristen in der Vergangenheit verwendet hatten.

Wurde ein Video oder Foto mit einem solchen Sensorfehler gefunden, wurde das hochgeladene Bildmaterial sofort gelöscht. Die Ermittler glaubten, endlich eine effiziente Suchmethode für Propaganda-Videos oder Terror-Selfies gefunden zu haben.

Doch nach wenigen Wochen stellte sich heraus: Die Terroristen verwendeten ihre jeweiligen Kameras nur zwei oder drei Mal. Die mit viel Geld aufgebaute Sensor-Datenbank des GCHQ erwies sich als Flop. Ebenso scheiterten Versuche mit Mimik-Abfolgen, mit denen innerhalb der Indect-Projekte der Europäischen Union Videoaufnahmen ausgewertet wurden.

Mimik-Abfolgen brachten nichts

Die Forscher analysierten dann Videos, auf denen Terroristen zu sehen waren, die gerade einen Anschlag verübten. Sie zeichneten genau auf, wann und in welcher Abfolge die nun grimmig, wütend, ängstlich oder entschlossen geschaut hatten. Daraus erstellten die Forscher eine Statistik und suchten mit den so gewonnenen Wahrscheinlichkeitsmustern nach Terror-Videos. Sie scheiterten damit.

Zwar können Gewehre, Messer und andere Waffen auf Fotos und Videos gut erkannt werden. Doch alle Videos beim Hochladen auf eine Plattform zu blockieren, auf denen Waffen zu sehen sind - dazu konnten sich die Regierungschefs bisher nicht entschließen. Ihre Militärs hätten dann ihre Videos mühsam von den Plattformen freischalten lassen müssen.

Dafür wollen Facebook & Co nicht extra Heerscharen von Mitarbeitern anstellen. Denn ob auf einem Video der legale Sturmangriff einer Polizei- oder Militäreinheit zu sehen ist oder ein Terrorangriff, das können nur Menschen erkennen. Algorithmen kriegen diesen Unterschied noch nicht heraus.

Herausforderung Mustererkennung in sozialen Netzwerken

Politik | auslandsjournal - Inside Facebook

Wie konnte der Mörder von Christchurch seine Tat live auf Facebook stellen und warum blieb das Video so lange online? Ein Undercover-Reporter hat ein Facebook-Ausbildungszentrum besucht und die Praktiken des Konzerns kennengelernt.

Videolänge:
5 min
Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.