Sie sind hier:

Künstliche Intelligenz - Bedingt hilfreich: KI gegen Hass-Posts

Datum:

Mobbing, Beleidigung, Hetze - allein die deutschen Facebook-Löschzentren sortieren Unmengen regelwidriger Posts aus. Dabei soll auch Künstliche Intelligenz helfen. Kann sie das?

Illustration: Ein Mann arbeitet am 12.07.2014 in Kaufbeuren (Bayern) an der Tastatur eines Laptops
Hasskommentare im Netz: Mit Künstlicher Intelligenz und 1.500 Moderatoren in Deutschland geht Facebook dagegen vor.
Quelle: imago images / photothek

Facebook-Chef Mark Zuckerberg äußerte sich im US-Senat ausgesprochen optimistisch: Die Probleme mit Postings voller Hassreden auf Facebook würden rasch gelöst. Die Moderatoren in den Löschzentren bekämen immer bessere Unterstützung durch Systeme mit Künstlicher Intelligenz (KI).

Geheime Kommandosache Hassrede

Aber wie genau das Kontrollsystem für Inhalte auf Facebook-Seiten arbeitet und welche Rolle KI-Software dabei spielt - die Pressestelle des Unternehmens schweigt sich dazu aus. Zwar durften Journalisten die Löschzentren in Essen und Berlin sogar schon besuchen. Doch Antworten auf solche organisatorischen und technischen Fragen gab es auch dort nicht.

In Berlin betreibt die Bertelsmann-Dienstleistungstochter Arvato ein solches Löschzentrum für Facebook, in Essen der Callcenter-Dienstleister CCC. In beiden Zentren arbeiten etwa 1.500 sogenannte Content-Moderatoren. Sie sortieren monatlich 15.000 Posts aus.

Neuronale Netzwerke sollen helfen

Die Moderatoren müssen sich vertraglich zur Geheimhaltung verpflichten und dürfen zum Beispiel außerhalb des Call Centers nicht über ihre Arbeit sprechen und natürlich auch keine Details aus dem Moderatoren-Regelwerk verraten. Immerhin wurde aus dem EU-Internetforum bekannt, dass Facebook zur Kontrolle von Postings auch neuronale Netzwerke einsetzt.

Wertet man dann noch zusätzlich Vorträge und Präsentationen von Wissenschaftlern aus, die in entsprechende Projekte bei Facebook eingebunden waren, ergibt sich ein etwas deutlicheres Bild vom System der Inhaltemoderation. Seit mindestens 18 Monaten wird in den Löschzentren mit Unterstützung neuronaler Netze gearbeitet. Zuvor haben die Mitarbeiter alle Postings anschauen, bewerten und gegebenenfalls löschen müssen.

KI sortiert vor

Ingo Dachwitz und Markus Reuter von Netzpolitik.org haben einen Mitarbeiter befragt, der im Essener Löschzentrum mit KI-Unterstützung arbeitet. Der Mitarbeiter wollte anonym bleiben und erhielt den Tarnnamen "Mika". Er berichtet, dass die KI-Software aktiv nach regelwidrigen Inhalten sucht und die entsprechenden Postings, wenn sie dann fündig geworden ist, in eine Ticket-Warteschlange legt. Dort werden sie dann von Moderatoren bewertet.

Außerdem berichtet Mika: "Wir trainieren die KI, indem wir ihre Vorschläge als richtig oder falsch bewerten." Damit seien alte Fehler ausgemerzt worden, neue seien aber aufgetaucht.

Wahrscheinlichkeit soll helfen

Der Bericht von Ingo Dachwitz und Markus Reuter auf Grundlage der Auskünfte des CCC-Informanten bestätigt Vermutungen, die nach Vorträgen über den Einsatz neuronaler Netze zur Identifizierung von Hassreden unter Informatikern diskutiert wurden. Sie gehen davon aus, dass sich Facebook bei der Kontrolle der Postings von den anfänglichen Stichwortlisten verabschiedet hat. Vielmehr wurden als Hassrede identifizierte Postings mit einem semantischen Netz und mit Mustererkennung ausgewertet.

Dabei entstehen Wahrscheinlichkeitswerte über die Verwendung einzelner Wörter und ihre Anordnung, den Satzbau und von Schreibfehlern, die typisch für Hass-Postings sind. Für jedes analysierte Posting wird dann ein Wahrscheinlichkeitswert berechnet, ob es sich um Hassrede handelt oder nicht.

Die Schwachstellen

Die Berechnung dieser Wahrscheinlichkeitswerte ist aber auch der kritische Punkt. Denn der Kontext, in dem ein Posting veröffentlicht wurde, kann bisher nicht ausreichend in die Berechnung einbezogen werden. Auch ironische oder satirische Anmerkungen können mit diesem Wahrscheinlichkeitsmodell nicht abgebildet werden.

Mark Zuckerberg betont zwar, dass letztendlich stets Moderatoren die Entscheidung treffen, ob ein Posting als Hassrede eingestuft werde. Das KI-System mache nur Vorschläge. Ob diese Vorschläge aber wirklich eine Hilfe für die Moderatoren darstellen, wird von nicht wenigen KI-Spezialisten bezweifelt.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Um zu verstehen, wie unsere Webseite genutzt wird und um Ihnen ein interessenbezogenes Angebot präsentieren zu können, nutzen wir Cookies und andere Techniken. Hier können Sie mehr erfahren und hier widersprechen.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.