Sie sind hier:

Algorithmische Entscheidung - Wenn die Künstliche Intelligenz ausrastet

Datum:

Immer mehr Entscheidungen trifft nicht der Mensch, sondern die KI-Software. Mitunter entscheidet sie allerdings rassistisch und diskriminierend.

Ein futuristisches Mainboard
Künstliche Intelligenz trifft zunehmend mehr Entscheidungen für uns. Aber sind sie auch gerecht? (Symbolbild)
Quelle: imago

Der Fall Timnit Gebru hat die Debatte um Vorurteile, die in Software mit Künstlicher Intelligenz fest verdrahtet werden, vor wenigen Tagen angeheizt. Timnit Gebru gilt als eine der besten Forscherinnen in Sachen KI und war Vize-Chefin der Google-Arbeitsgruppe über Ethik in der Künstlichen Intelligenz.

"Do not evil" gilt nicht mehr

Inzwischen arbeitet sie nicht mehr bei Google. Ihre Arbeit über rassistische und geschlechterspezifische Vorurteile von Textsoftware mit Künstlicher Intelligenz missfiel ihrem Arbeitgeber. Timnit Gebru blieb konsequent, und so eskalierte der Streit.

Und diese Auseinandersetzung hat sofort eines bewirkt: Die Frage, wie rassistisch und vorurteilsgeladen KI-Software arbeitet, steht wieder ganz oben auf der Tagesordnung.

Amazon und Microsoft mussten Anwendungen abschalten

Die Debatte darüber ist nicht neu. Amazon schaffte vor zwei Jahren eine KI-Software für die Bewerberauswahl wieder ab, weil die eingebaute KI Frauen benachteiligte. Microsoft musste seinen Chatbot Tay vor vier Jahren abschalten, nachdem der begann, rassistische und teilweise extremistische Inhalte zu twittern.

Gesellschaft für Informatik hat das Problem früh erkannt

Noch älter sind solche Benachteiligungen durch algorithmische Entscheidungen beim Kredit-Scoring. Der Fall von Oliver A.* ist 2018 intensiv diskutiert worden. Die Mitglieder der Fachgruppe Rechtsinformatik der Gesellschaft für Informatik haben über solche Fälle und Scoring-Methoden geforscht und ein knapp 200 Seiten starkes Gutachten für den Sachverständigenrat für Verbraucherfragen erstellt.

Wichtigste Forderung: Algorithmen, die für Scoring eingesetzt werden, also über Menschen entscheiden, müssen besser kontrolliert werden. Von einer fairen und nachvollziehbaren Entscheidung kann beim Einsatz von Entscheidungs-Algorithmen nämlich keine Rede mehr sein.

Wenn die KI den Mietvertrag platzen lässt

Ein weiteres Beispiel: Oliver A.*, 35 Jahre alt, Programmierer von Beruf, Bruttoverdienst 5.200 Euro, sucht gemeinsam mit seiner Lebensgefährtin Stephanie F., Krankenschwester, Bruttoverdienst 2.200 Euro, eine Wohnung in Köln. Einige Wohnungen waren wirklich schön, teuer zwar, aber mit dem Einkommen der beiden bezahlbar.

Der Draht zum Vermieter stimmte. Und dennoch kam nach zehn Tagen die Absage. Begründet wurde die Absage vom Vermieter nicht. Er teilte nur lapidar mit, er habe sich für jemand anderen entschieden.

Oliver A. ließ das keine Ruhe. Er forschte nach. Schließlich brachte ihn der Hinweis eines Kollegen auf die richtige Fährte: Seine Kreditauskunft versaute ihm den Mietvertrag. Mit dieser Kreditauskunft wollen die Vermieter sichergehen, dass der künftige Mieter auch immer pünktlich seine Miete zahlen wird. Dafür wird nicht nur sein Zahlungsverhalten in der Vergangenheit ausgewertet.

Kreditauskunft per KI

Je nach Kreditauskunftei setzt sich der Kredit-Score aus bis zu 200 unterschiedlichen Datensätzen zusammen. Bei Oliver A. und seiner Lebensgefährtin hat eigentlich alles gestimmt. Beide haben zukunftssichere Berufe. Er verdient sogar sehr gut. Ihre Rechnungen zahlen sie immer pünktlich.

Trotzdem war da dieser miese Kredit-Score für Oliver A. Schuld war der Nachname. Der klang arabisch, und die Entscheidungssoftware der Kreditauskunftei stufte Oliver A. als Migranten ein.

Gewichtung einzelner Datenfaktoren entscheidet

Der Faktor "Migrant" wiederum war sehr hoch gewichtet für den Kredit-Score. Deshalb die schlechte Kreditnote und die Ablehnung durch den Vermieter.

Ob und wie vorurteilsgeladen KI-Software entscheidet, hängt von den Trainingsdaten und von der Gewichtung einzelner Kriterien für die Beurteilung bestimmter Datensätze ab. Wird hier genau kontrolliert und überprüft, kann verhindert werden, dass die Künstliche Intelligenz plötzlich ausrastet und rassistisch, extremistisch oder diskriminierend entscheidet.

*Name von der Redaktion auf Wunsch des Betroffenen geändert.

Mit "Schnüffler-Algorithmen" kann Amazon gezielte Werbung für Kunden schalten. Doch diese könnten künftig nicht nur unser Kaufverhalten prägen.

Beitragslänge:
1 min
Datum:
Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Zur Merkliste hinzugefügt! Merken beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Um zu verstehen, wie unsere Webseite genutzt wird und um dir ein interessenbezogenes Angebot präsentieren zu können, nutzen wir Cookies und andere Techniken. Hier kannst du mehr erfahren und hier widersprechen.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, kannst du jetzt eine Altersprüfung durchführen. Dafür benötigst du dein Ausweisdokument.

Du wechselst in den Kinderbereich und bewegst dich mit deinem Kinderprofil weiter.