Sie sind hier:

Künstliche Intelligenz - Computer sind dumm, Algorithmen aber schlau

Datum:

Analyse-Software erstellt aus den gesammelten Datenbergen bei Facebook und Co. persönliche Profile. Dank der Algorithmen werden so Prognosen zum Verhalten der Menschen berechnet.

Zwei nebeneinanderstehende Bildschirme, auf denen Algorithmen zu lesen sind.
Algorithmen sind in der Lage, Details aus unserem Privatleben vorherzusagen. Quelle: ZDF

Daten gelten nicht nur Politikern als das Öl des 21. Jahrhunderts. Deshalb werden sie wie verrückt gesammelt. Wer über welche Themen postet oder twittert, wer was auf Google sucht, wer wem eine Mail schickt – alles wird gespeichert und ausgewertet. Analyse-Software berechnet genau, was die Menschen demnächst tun werden.

Analyse-Software macht auch Fehler

Solche Prognosen sind gefragt und teuer. Facebook entwickelt deshalb in einem eigenen Forschungslabor Software, die solche Vorhersagen mit Methoden der Künstlichen Intelligenz treffen soll.

Die Qualität der Prognosen hängt von den Algorithmen ab. Wenn ausreichend viele Daten zur Verfügung stehen und die Wahrscheinlichkeitsrechnung ausgereift ist, sind sehr präzise Berechnungen möglich. Allerdings müssen auch die Simulations-Algorithmen gut sein, mit der die Prognosen durchgespielt werden.

Algorithmen können gefährlich werden

Zwischen Facebook-Chef Mark Zuckerberg und Elon Musk ist ein heftiger Streit über die Gefährlichkeit solcher Algorithmen ausgebrochen. So sind Sicherheitsbehörden an den Prognose-Algorithmen auf der Basis von Social-Media-Daten sehr interessiert.

Sie wollen damit unter anderem die Wahrscheinlichkeit berechnen, mit der ein Mensch straffällig wird. Solchen Verhaltensprognosen liegen immer Verhaltensmuster von Menschen zugrunde, die straffällig geworden sind. Dazu gehören auch Daten über ihr Verhalten auf Social-Media-Plattformen.

Wahrscheinlichkeiten sind keine Ursachen

In Großbritannien ist intensiv darüber diskutiert worden, was denn mit Menschen geschehen soll, für die eine Vorhersage berechnet wurde, dass sie mit hoher Wahrscheinlichkeit straffällig werden. Dabei ist vollkommen übersehen worden, dass es sich nur um eine Wahrscheinlichkeitsberechnung handelt und nicht mehr.

Außerdem wird oft nicht bedacht, dass jede Prognose nur so gut ist wie das zugrundeliegende Verhaltensmodell. Und die Präzision, mit der Muster berechnet werden, schwankt auch sehr stark.

Selbstlernende Software wird manchmal unberechenbar

Wenn dann ein System mit Algorithmen künstlicher Intelligenz arbeitet, die der Mensch nicht mehr nachvollziehen kann, wird es gefährlich. Oft wird hier mit selbstlernender Software gearbeitet, die bestimmte Eigenschaften des menschlichen Gehirns nachahmen soll.

Das heißt, dass eine Art neuronales Netz eine Prognose berechnet, wann ein Mensch ein Buch kauft oder straffällig wird. Dabei startet dieses neuronale Netz von einem bestimmten Verhaltensmodell aus. Das ist seine Ausgangsstellung.

Bestimmtes Verhalten, zum Beispiel Schimpfen in Posts, wird mit einer bestimmten Punktzahl gewichtet. Diese Gewichtungen beeinflussen, welche Verknüpfungen die einzelnen Knoten des neuronalen Netzes eingehen.

Die Verknüpfungen sind entscheidend

Wenn jetzt Daten von Social-Media-Plattformen eingespeist werden, entstehen neue Verknüpfungen. Und die führen zu einer Berechnung, wann ein Nutzer bei Amazon etwas bestellt, eine bestimmte Partei wählt oder einen anderen Menschen zusammenschlagen könnte.

Schon bei diesen Wahrscheinlichkeitsberechnungen und Simulationskonzepten werden oft zwei Programmierkonzepte durcheinandergebracht. Und dann wird es wirklich übel, weil sich die Software aufgrund schlechter Programmierung irren kann.

Im Forschungslabor von Facebook musste deshalb im Sommer 2017 ein Experiment mit Verhandlungssoftware abgebrochen werden. Unsaubere Programmierung hatte dazu geführt, dass die Systeme außer Kontrolle gerieten und die Wissenschaftler nicht mehr nachvollziehe konnten, was die Lern-Algorithmen dort machten.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.