Sie sind hier:

Kongress in Magdeburg - Künstliche Intelligenz hat ein Gender-Problem

Datum:

Von Künstlicher Intelligenz erwartet man Lösungen, die frei von menschlichen Fehlern sind. Doch die Systeme diskriminieren Frauen und Minderheiten. Woran liegt das?

Studentin demonstriert beim "Speed Dating mit KI" die Fähigkeiten eines Roboters.
Im deutschen KI-Sektor sind nur 16 Prozent der Beschäftigten Frauen.
Quelle: DPA

Man versetze sich in das Jahr 2050. Eine große Firma schreibt einen lukrativen Job aus. Tausende Frauen und Männer bewerben sich. Bevor aber Menschen endgültig entscheiden, wer eingestellt wird, bewertet eine Maschine mit Künstlicher Intelligenz (KI) die Kandidaten. Sie soll herausfinden, wer am besten zum Unternehmen passt. Alles nur Science-Fiction? Amazon arbeitete schon 2014 an solch einem Projekt - es hatte nur ein großes Manko: Frauen wurden stets schlechter bewertet als Männer.

Der Fehler steckt schon in den Daten

Doch wie konnte es dazu kommen? Sollte Künstliche Intelligenz nicht über menschliche Stereotypen und Vorurteile erhaben sein? KI ist heutzutage noch kein humanoider Roboter. Vor allem sind es Algorithmen, die in großen Datenmengen Muster erkennen und anhand dieser entscheiden. Und an dieser Stelle liegt der Fehler. Das intelligente Programm lernt selbstständig und das mit Datensätzen, in denen oft noch gesellschaftliche Vorurteile steckten, erklärt Natalie Sontopski, wissenschaftliche Mitarbeiterin im Komplexlabor Digitale Kultur an der Hochschule Merseburg. So auch bei Amazon: Da das Unternehmen zur Technik-Industrie gehört, in der vor allem Männer arbeiten, hat die KI aus den Daten der bisherigen Angestellten geschlossen, dass männliche Bewerber zu bevorzugen seien.

Amazon hat das Problem zwar erkannt und versucht, es zu lösen. Letztendlich wurde die Entscheidung, wer eingestellt wird, aber immer von Menschen getroffen.

Das Beispiel von Amazons Bewerbungsalgorithmus ist nur eines von vielen, bei denen Menschen aufgrund einer KI diskriminiert wurden: angefangen bei Gesichtserkennungssoftware, die schwarze Frauen schlecht erkennt, bis hin zu Systemen, die eine längere Haftstrafe für schwarze als für weiße Straftäter in den USA vorschlagen.

Vorurteilsfreie Datensätze schwer zu finden

Natalie Sontopski
Natalie Sontopski forscht im Komplexlabor Digitale Kultur an der Hochschule Merseburg.
Quelle: Natalie Sontopski

Genau deshalb sei Genderforschung in der KI so wichtig, erklärt Sontopski: "Es gibt Bias (Voreingenommenheit, Anm. d. Red.), die wir in der Offline-Welt, in unserer Gesellschaft, bezüglich Geschlecht, Ethnie und Co. haben. Die werden durch die Daten in die Künstliche Intelligenz reingetragen und dort reproduziert oder sogar noch verstärkt." Datensätze zu finden, die ohne Vorprägung sind, sei aber gar nicht so leicht, da bestimmte Bevölkerungsgruppen, wie zum Beispiel weiße Männer, einfach umfangreicher dokumentiert wurden. Da es von ihnen mehr Daten gibt, würden sie auch bevorzugt.

Datensätze mit diskriminierendem Inhalt könnten sogar Probleme wiederaufleben lassen, die schon überwunden wurden, meint auch Claude Draude, Leiterin der Gruppe Gender/Diversity in Informatics Systems an der Universität Kassel. Sie fordert eine stärkere Sensibilisierung für Inhalt und Auswahl von Datensätzen. Dabei sollten Forscher ihrer Meinung nach hinterfragen, inwieweit ihre Daten weltweit gültig sind.

Mehr digitale Gleichberechtigung

Sontopski sieht die Lösung für eine vorurteilsfreiere Zukunft der KI vor allem in einer genaueren Auswahl der Datensätze. Dafür seien vielfältigere Teams notwendig, in denen auch Minderheiten eine Stimme haben. Darin steckt noch großes Potenzial: Laut dem Global Gender Gap Report des Weltwirtschaftsforums sind nur knapp ein Viertel der Beschäftigten im KI-Sektor Frauen, in Deutschland sogar nur 16 Prozent.

Auch Draude fordert mehr Frauen in der Forschung. "Wir brauchen mehr Experten und Expertinnen, die sich mit dem Thema Künstliche Intelligenz beschäftigen." Informatiker sollten stärker mit ihren Kollegen, zum Beispiel aus der Genderforschung oder Sozialwissenschaft, zusammenarbeiten - eine Chance für mehr digitale Gleichberechtigung.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Zur Merkliste hinzugefügt! Merken beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Um zu verstehen, wie unsere Webseite genutzt wird und um Ihnen ein interessenbezogenes Angebot präsentieren zu können, nutzen wir Cookies und andere Techniken. Hier können Sie mehr erfahren und hier widersprechen.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.