Sie sind hier:

Diskussion um soziales Netzwerk - Suizide verhindern: Facebook in der Kritik

Datum:

Nutzer melden verdächtige Freunde, ein Algorithmus scannt Beiträge: So will Facebook Selbsttötungen verhindern. Das tut der Datensammler nicht selbstlos, argwöhnen nun Ethiker.

Junge Frau sitzt vor einem Laptop mit dem Gesicht in den Händen
Warnungen eines Algorithmus hätten weltweit zu 3.500 Einsätzen von Ersthelfern geführt, sagt Facebook-Chef Mark Zuckerberg.
Quelle: imago

42 Minuten dauerte das Video, auf dem eine zwölfjährige Amerikanerin 2017 ihren Suizid auf Facebook live streamte. Bereits am Tag zuvor soll sie in ihrem Online-Tagebuch ihren Stiefvater beschuldigt haben, sie geschlagen zu haben.

Rund 9.800 Menschen haben sich 2016 in Deutschland das Leben genommen, darunter 205 Jugendliche im Alter zwischen 15 und 20 Jahren. Menschen, die ihren Tod planen, kündigen ihn oft vorher an. Auch in sozialen Netzwerken. Für Facebook ist das ein Image-Schaden.

Nutzer sollen Suizid-Absichten melden

Seit längerem schon engagiert sich Facebook in der Prävention von Selbsttötungen. Nutzer werden aufgerufen, andere Nutzer zu melden, wenn sie Suizid-Absichten vermuten. Auf der Homepage wird das Thema offensiv angesprochen: "Durch Freundschaften auf der Plattform können sich Menschen in Not mit Personen verbinden, die sie unterstützen", heißt es dort. "Wenn du dich um ein Familienmitglied sorgst oder dich selbst mit Selbstmordgedanken quälst - wir möchten dir helfen."

Suizid die zweithäufigste Todesursache bei den unter 25-Jährigen. Dem will die Caritas mit ihrem Onlineprojekt "U25" entgegenwirken – eine Plattform, auf der Betroffene mit Gleichaltrigen über ihre Probleme sprechen können.

Beitragslänge:
2 min
Datum:

Seit 2017 verwendet Facebook allerdings auch künstliche Intelligenz, um Suizide zu verhindern. Ein Algorithmus scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote wie Telefonnummern oder Adressen von Ansprechpartnern zukommen lassen oder kann sich an Behörden oder die Polizei wenden. Facebook-Chef Mark Zuckerberg erklärte im November, die Warnungen des Algorithmus hätten weltweit zu 3.500 Einsätzen von Ersthelfern geführt.

Ist die Datenkrake so selbstlos?

Das Engagement weckt zugleich Misstrauen. Handelt die Datenkrake wirklich so selbstlos? Wer kann die sensiblen Daten nutzen? Schließlich verrät Facebook nicht, nach welchen Kriterien gesucht wird. Und Zuckerberg hat schon angekündigt, dass man auch terroristische Propaganda mit solcher Technik ausfindig machen wolle. Kontrolle? Fehlanzeige.

Am Montag meldeten deutsche Ethikexperten und Wissenschaftler Bedenken an. Sie forderten mehr Datenschutz und wissenschaftliche Nachweise dafür, dass das Suizidpräventionsprogramm mehr nutzt als schadet. Aus Sicht des Paderborner Philosophen und Informatikers Tobias Matzner wird deutlich, welch intimes Wissen Firmen inzwischen erlangen können. "Dass hier ein hehrer Zweck verfolgt wird, sollte nicht davon ablenken, dass dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten." Laut amerikanischen Medienberichten überprüfe Facebook nicht einmal, ob die Alarme zutreffend waren.

Ziemlich eindeutig äußerte sich die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen: Sie hielt Facebook vor, ohne Einwilligung der Kunden zu handeln und die Privatsphäre zu verletzen. "Das ist ethisch nicht vertretbar." Auf jeden Fall müsse sich das Unternehmen an die bewährten wissenschaftlichen Standards für Screeningverfahren halten. "Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind", so die Professorin für Ethik und Theorie der Medizin an der Universität zu Köln.

Künstliche Intelligenz nicht in der EU

Eine Facebook-Sprecherin erklärte, die entsprechenden Tools kämen "bislang" in der EU nicht zur Anwendung. "Wir arbeiten seit mehr als zehn Jahren an dem Thema Suizidprävention und werden uns auch weiterhin mit Experten dazu austauschen, was für Menschen in derartigen Notsituationen hilfreich ist", fügte sie hinzu. Jeder Nutzer könne Inhalte melden, wenn jemand mit Suizid oder Selbstverletzung verbundene Inhalte poste.

Daten mit besonderer Schutzbedürftigkeit

Die wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig, Anne Riechert, betonte, bei Informationen zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheit handele es sich um Daten mit besonderer Schutzbedürftigkeit, deren Verarbeitung untersagt sei - gerade dann, wenn durch sie eine Notlage offengelegt werde, die die Betroffenen beschämen könnte.

Matzner verwies auch auf die Fehleranfälligkeit: Das Unternehmen arbeite mit Algorithmen und suche eine Art allgemeines Muster für Suizidgefahr. "Damit können auch diverse Beiträge in den Fokus der Algorithmen geraten, die nichts mit Suizid zu tun haben."

Plötzlich steht die Polizei vor der Haustür

Ein Fehlalarm könnte äußerst unangenehme Folgen haben: Plötzlich steht die Polizei vor der Haustür. Familie, Freunde und Nachbarn werden verunsichert. Auch Menschen, die mit Suizidgedanken kämpfen, können Angst bekommen, dass ihnen die Mündigkeit genommen wird und sie eingeliefert werden, warnen Experten. Der Algorithmus könnte Betroffene auch davon abhalten, Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu teilen.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.