Sie sind hier:

Künstliche Intelligenz - Software gegen drohenden Kontrollverlust

Datum:

Künstliche Intelligenz erobert unseren Alltag. Doch die Software trifft mitunter fatale Fehlentscheidungen. Die Algorithmen müssen besser kontrolliert werden.

Künstliche Intelligenz (Symbolbild)
Künstliche Intelligenz (Symbolbild) Quelle: imago

Kürzlich hatte ein selbstfahrendes Auto einen Unfall. Es ist in einen LKW gekracht. Um herauszufinden, wie der Unfall passiert ist, mussten die Experten Schritt für Schritt nachvollziehen, wie es zu der Karambolage kam.

Sie schauten sich die einzelnen gespeicherten Systemzustände des autonomen Fahrzeugs in den Sekunden vor dem Unfall an. Dabei stellte sich heraus, dass eine falsche Mustererkennung die Ursache war. Die Künstliche Intelligenz (KI) hatte versagt.

KI-Systeme müssen kontrolliert werden

Der LKW hatte einen himmelblauen Anstrich. Deshalb hat das KI-System ihn nicht als Auto und somit als Hindernis erkannt, sondern als Horizont eingestuft. Die Konsequenz: Der PKW fuhr ungebremst weiter.

"Bei solchen Fehlern müssen wir systemtechnisch früher eingreifen", sagt Dr. Clemens Dannheim, Geschäftsführer der KI-Softwareschmiede Objective GmbH in München. Er entwickelt mit seinem Team Kontrollsysteme für KI-Systeme. Die überwachen nicht nur die Künstliche Intelligenz von selbstfahrenden Autos. Sie können auch Fehlentscheidungen in Gerichten verhindern.

Rassistische Algorithmen

So setzen amerikanische Richter Prognosesysteme ein, die die wahrscheinliche Straffälligkeit eines Menschen berechnen sollen. Von diesen Berechnungen machen sie dann eine vorzeitige Haftentlassung oder Bewährungsauflagen abhängig.

Rechtsinformatiker haben diese Entscheidungen genauer analysiert und fanden heraus, dass die hier eingesetzten neuronalen Netze Menschen mit weißer Hautfarbe bevorzugen. "Das kann durchaus von den Daten abhängen, die dem System in der Anlernphase zum Trainieren eingegeben werden", meint KI-Experte Dr. Dirk Michelsen von der IBM Deutschland.

Die Technik dafür ist nicht neu und wird von Banken, Versicherungen und Handelsunternehmen bereits seit 30 Jahren eingesetzt. "Ist das System ausreichend trainiert, wird es eingefroren, geprüft, ob es sich so verhält, wie es sich verhalten soll", beschreibt Dirk Michelsen die Vorgehensweise beim Einsatz klassischer neuronaler Netze.

Einsatz neuronaler Netze ändert sich

"Dadurch ist das Ergebnis des Systems jederzeit nachvollziehbar und transparent", sagt Dr. Kurt Bettenhausen vom Verein Deutscher Ingenieure. Allerdings ändert sich das gerade.

"Wenn das System on the fly lernt und sich dadurch verändert, ist diese Nachvollziehbarkeit im strengen Sinne nicht mehr so gegeben", gibt KI-Experte Dirk Michelsen zu bedenken. Im schlimmsten Fall wird die Künstliche Intelligenz unkontrollierbar. Die Menschen wissen nicht mehr, wie das KI-System zu einer bestimmten Entscheidung gekommen ist und wie die entsprechenden Ergebnisse berechnet worden sind.

Künstliche Intelligenz wird unkontrollierbar

"Der alte Ansatz wie beim deterministischen Programmieren in der normalen Algorithmik reicht hier einfach nicht mehr aus", warnt Clemens Dannheim. Deshalb müssen KI-Systeme in allen ihren Berechnungen ständig von Kontrollsystemen überwacht werden. Was sie gerade gelernt haben, muss dokumentiert werden.

Dafür gibt es ausgefeilte Verifikationsmethoden. Die aber werden viel zu selten eingesetzt. Denn solche Kontrollsysteme sind nicht gerade billig. Bei Call-Centern, die KI-Assistenzsysteme einsetzen, beschweren sich immer mal wieder Kunden, dass sie mit ihrem Anliegen falsch behandelt wurden.

Das liegt dann daran, dass die Beschwerde oder das Anliegen des Kunden vom KI-System nicht richtig zugeordnet wurde. Doch die leicht verärgerten Kunden verursachen hier geringere Kosten als die Einführung eines KI-Kontrollsystems.

KI-Spezialisten: Einsatz muss reguliert werden

Deshalb fordern KI-Spezialisten eine gesetzliche Regulierung beim Einsatz solcher KI-Kontrollsysteme. Das ist bisher nicht sehr erfolgreich gewesen. "Versuchen Sie mal, einem Politiker die dahinter stehende technische Problematik zu vermitteln", schildert Clemens Dannheim leicht frustriert die politischen Schwierigkeiten.

So lange bleiben Systeme künstlicher Intelligenz, die unkontrollierbar zu werden drohen, eine erhebliche Gefahr. Doch bevor die beseitigt werden kann, muss sie erst einmal in der politischen Diskussion ankommen.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.