Sie sind hier:

Algorithmen und Co im Alltag - Wenn das Scoring entscheidet ...

Datum:

Computer entscheiden darüber, wer eine Wohnung bekommt und demnächst, wer in die EU einreisen darf. Solche Software für das Risiko-Scoring produziert oft ungerechte Ergebnisse.

Symbolbild: Bonitätsauskunft - SCHUFA
Bonitätsauskunft - SCHUFA (Symbolbild)
Quelle: dpa

Wohnungen in Ballungsräumen wie Berlin, Hamburg, Köln, Stuttgart oder München zu ergattern, ist schwierig geworden. Wenn dann Algorithmen für das sogenannte "Risiko-Scoring" nicht nachvollziehbare Ergebnisse liefern, kann es für Wohnungsuchende eng werden.

Nicht nachvollziehbare Software-Entscheidungen

Davon kann Oliver A., 35 Jahre alt, Programmierer von Beruf, ein Lied singen. Er hat einen Bruttoverdienst von 5.200 Euro und sucht gemeinsam mit seiner Lebensgefährtin Stephanie F., Krankenschwester, Bruttoverdienst 2.200 Euro, eine Wohnung in Stuttgart. Einige Wohnungen waren wirklich schön, teuer zwar, aber mit dem Einkommen der beiden bezahlbar. Der Draht zum Vermieter stimmte. Und dennoch kam nach zehn Tagen die Absage.

Begründet wurde die Absage vom Vermieter nicht. Er teilte nur lapidar mit, er habe sich für jemand anderen entschieden. Oliver A. ließ das keine Ruhe. Er forschte nach. Schließlich brachte ihn der Hinweis eines Kollegen auf die richtige Fährte: Sein Kreditscore stimmte nicht.

Wer eine Wohnung mieten will, stimmt nämlich in der Regel zu, dass der Vermieter eine Kreditauskunft einholen kann, einen sogenannten Kredit-Score. Mit dieser Kreditauskunft wollen die Vermieter sichergehen, dass der künftige Mieter auch immer pünktlich seine Miete zahlen wird.

Scores bestimmen unser Leben

Dafür wird nicht nur sein Zahlungsverhalten in der Vergangenheit ausgewertet. Je nach Kreditauskunftei setzt sich der Kredit-Score aus bis zu 200 unterschiedlichen Datensätzen zusammen. Bei Oliver A. und seiner Lebensgefährtin hat eigentlich alles gestimmt. Beide haben zukunftssichere Berufe. Er verdient sogar sehr gut. Ihre Rechnungen zahlten und zahlen sie immer pünktlich.

Trotzdem war da dieser miese Kredit-Score für Oliver A. "Solche Kredit-Scores sind rätselhaft, und zwar in jeder Hinsicht", findet Professor Gerd Gigerenzer vom Max-Planck-Institut in Berlin. "Denn wir wissen ja nicht, was die Schufa und andere Auskunfteien da genau scoren, also welche Größen sie nehmen und welchen Algorithmus sie einsetzen", erläutert Risikoforscher Gigerenzer.

Geschäft mit vielen Rätseln

Die Algorithmen bei allen Kreditauskunfteien sind Geschäftsgeheimnisse. Ein Mietinteressent wie Oliver A. mit einem schlechten Risiko-Score kann gar nicht kontrollieren, warum er einen guten oder schlechten Score hat.

Oliver A. ging der Sache auf den Grund. Er ließ sich von Freunden, Kollegen und Bekannten alle Unterlagen zu deren Kredit- oder Risiko-Scores geben. Mit diesen Daten machte er das, was er bei der Reparatur von unsicher gewordener alter Software auch macht: Er rekonstruierte den zugrundeliegenden Algorithmus.

So stellte sich heraus, dass bei Oliver A. sein Nachname zum schlechten Risiko-Score geführt hatte. Der klang nämlich arabisch. Die Entscheidungssoftware der Kreditauskunftei stufte Oliver A. deshalb als Migranten ein.

Scoring auch für Reisende?

Der Faktor Migrant wiederum war sehr hoch gewichtet für den Risiko-Score. Deshalb kamen dann die schlechte Kreditnote und die Ablehnung durch den Vermieter zustande. So etwas passiert übrigens nicht nur Mietinteressenten.

Die Europäische Union will an den Außengrenzen ein System für das Risiko-Scoring von Reisenden einführen. Der Reisende soll Fragen einer KI-Software beantworten. Dabei wird er von einer Webcam gefilmt. Per Mustererkennung werden dann zunächst seine Mimik und später auch Sprechweise ausgewertet.

Außerdem werden seine Posts in den sozialen Medien für die Risikobewertung analysiert. Auch sein bisheriges Reiseverhalten fließt mit ein. Daraus errechnet die Software dann einen Risiko-Score, der den Grenzbeamten als Grundlage für die Entscheidung dient, ob sie einen Reisenden zurückweisen oder einreisen lassen.

Bewerbung 4.0: Kann Software Bewerbungsgespräche ersetzen?

Beitragslänge:
10 min
Datum:

Methoden werden geheim gehalten

Noch ist das ein Forschungsvorhaben. Doch auch hier werden Trainingsdaten, Gewichtungen verschiedener Faktoren und Kriterien sowie die konkret verwendeten Methoden Künstlicher Intelligenz geheim gehalten.

Nur wenn alle Berechnungsgrundlagen für eine automatisierte Entscheidung offengelegt werden, kann das Ergebnis überprüft werden. Das ist aber bei Kredit- und Risiko-Scores derzeit überhaupt nicht der Fall. So werden Score-Werte ohne wirkliche Aussagekraft produziert, die den Betroffenen den Alltag schwer machen und das Leben vergällen können.

Sie personalisieren Inhalte, berechnen Routen und Preise: Algorithmen sind Teil des Alltags. Sie stecken etwa in Software, sind schwer greifbar und werden in immer mehr Bereichen eingesetzt.

Beitragslänge:
28 min
Datum:
Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.