ChatGPT und Co.: So gefährlich könnte KI für die Welt werden

    Forderung nach Forschungsstopp:Wie gefährlich kann KI für die Welt werden?

    von Lukas Wagner
    |

    Die Entwicklung Künstlicher Intelligenz schreitet rasant voran. Nun warnen viele namhafte Experten vor den tiefgreifenden Risiken - doch wie gefährlich kann KI wirklich werden?

    Das Bild zeigt eine Vorstellung des Textbots ChatGPT
    Der Chatbot ChatGPT hat einen Hype um Künstliche Intelligenz entfacht. Doch welche Gefahren bringen solche KI-Systeme mit sich?
    Quelle: AFP

    Digitale Revolution, Wundermaschinen, Gamechanger: Die Huldigungen für intelligente Computerprogramme wie ChatGPT kennen kaum Grenzen. Doch nun warnen zahlreiche Internetexperten - darunter Apple-Mitgründer Steve Wozniak - in einem offenen Brief vor einem drohenden Kontrollverlust "über unsere Zivilisation" durch Künstliche Intelligenz (KI).
    Kann KI also tatsächlich die Welt ins Chaos stürzen und worin liegen konkret die Gefahren der Technologie? Das sagen Experten und Unterzeichner des Aufrufs gegenüber ZDFheute.

    Wie bedrohlich ist Künstliche Intelligenz?

    Die Medienethikerin Dr. Jessica Heesen von der Universität Tübingen hält das Aufbauen existenzieller Bedrohungsszenarien für bedenklich. Durch diese "Mystifizierung von KI" entstehe Passivität, anstatt Bewusstsein für die anstehende Herausforderung zu schaffen.

    Angst darf nicht wie eine Soße über das Thema gekippt werden.

    Jessica Heesen, Universität Tübingen

    Vielmehr solle man die einzelnen Anwendungsgebiete und die dortigen Vor- und Nachteile von KI in den Blick nehmen, erklärt Heesen.
    Der Einsatz künstlicher Intelligenz (KI) bietet viele Chancen, birgt aber auch Risiken. Der Ethikrat fordert eine Regulierung der sich rasant entwickelnden Technik.21.03.2023 | 2:32 min
    IT-Experte Prof. Frank Hutter, der den offenen Brief zur KI-Forschung unterschrieben hat, warnt ebenfalls davor, Künstliche Intelligenz zu "verteufeln". Die Fortschritte im KI-Bereich würden z.B. große Hoffnung bei der Krebsforschung machen, sagt er. Doch der Punkt sei erreicht, an dem die Menschheit überlegen müsse, wo man mit der KI-Entwicklung hin wolle, sagt Hutter, Professor am "Machine Learning Lab" der Universität Freiburg.

    Wenn man das Forschungswachstum der letzten Monate betrachtet, wären das normalerweise zehn Jahre Entwicklung.

    Frank Hutter, Universität Freiburg

    Welche Gefahren birgt KI?

    Heesen sieht durch immer menschlicher wirkende KI-Tools die Gefahr eines Vertrauenverlustes in die Kommunikation. Laut Hutter ist es schon jetzt möglich, Software mit KI zu programmieren, die Millionen authentisch aussehende Fake-Accounts auf Plattformen wie Twitter erstellt.
    Joachim Weickert, der ebenfalls den offenen Brief unterstützt, erklärt, dass "praktisch keinerlei Fachkenntnisse" mehr notwendig seien, um z.B. potenziell Wahlen zu beeinflussen oder Fake News zu verbreiten.

    Nicht nur jeder Diktator, sondern auch jeder Wirrkopf hat plötzlich alle Mittel zur Hand, um jede noch so absurde These mit täuschend echt wirkenden Videos zu "belegen".

    Joachim Weickert, Universität des Saarlandes

    Expertin Tina Klüwer über Risiken der Künstlichen Intelligenz.21.03.2023 | 4:35 min
    Mathematik- und Informatik-Professor Weickert nennt weitere Risiken, mit denen der Einsatz Künstlicher Intelligenz - auch Artifizielle Intelligenz genannt (AI) - aus seiner Sicht verbunden ist:
    • automatisierte Anwendungen, bei denen Menschen nicht mehr "korrigierend" eingreifen, z.B. bei autonomen Waffensystemen
    • "gewaltige gesellschaftliche Umbrüche" durch das Wegfallen zahlreicher Berufe
    • KI-Systeme, die aufgrund bestimmter Trainingsdaten "Einseitigkeit, Vorurteile und Rassismus" weiterverbreiten
    • Möglichkeiten zur "Totalüberwachung einer Gesellschaft"

    Braucht es eine Forschungspause im KI-Bereich?

    Der offenen Brief zur KI-Forschung mit der Forderung einer sechsmonatigen Entwicklungspause sei vor allem an die großen Player in den USA gerichtet, sagt Frank Hutter. Momentan würden dort die wichtigsten KI-Entscheidungen durch eine Handvoll dominierender Firmen und Tech-Enthusiasten getroffen.

    Es geht keinesfalls darum, KI-Forschung als Ganzes zu pausieren, sondern nur das Wettrennen der Tech-Giganten um die mächtigste KI.

    Frank Hutter, Universität Freiburg

    Stattdessen müsse "die Forschung an vertrauenswürdiger KI" forciert werden, sagt Hutter. Joachim Weickert will den Aufruf als "Denkanstoß" und einen Versuch verstanden wissen, "die Diskussion auf breiterer Front anzukurbeln".
    Um "gemeinsame Regeln und Grenzen" mit den großen Internetkonzernen festlegen zu können, brauche es "äußeren Druck durch Politik, Gesetzgebung und Gesellschaft", erklärt Weickert - das sei das Ziel des offenen Briefes.
    Die Stadt Heidelberg hat mit Hilfe von Künstlicher Intelligenz einen neuen Stadt-Mitarbeiter geschaffen, der Bürgern Rede und Antwort steht.13.03.2023 | 5:34 min

    Wie sollte auf die Risiken der KI-Entwicklung reagiert werden?

    Jessica Heesen kritisiert die "fast monopolartige Dominanz" der digitalen Big Player bei der KI-Forschung. Es gebe bereits viele Ethik-Kodizes zu Aspekten wie Datenschutz oder Transparenz, die allerdings von den großen Internetplattformen seit Jahren ignoriert würden. Sie fordert unter anderem eine Offenlegungspflicht für Filter und Algorithmen, die bei KI-Anwendungen verwendet werden.
    IT-Experte Hutter schlägt im Gegensatz zu politischen Maßnahmen vor, die Regulierung von KI durch andere intelligente AI-Systeme voranzutreiben. Er ist überzeugt, dass eine "allgemeine KI" in noch nicht absehbarer Zeit mehr als Menschen leisten könne. Daher brauche es dringend eine Debatte darüber, wohin der KI-Weg in Zukunft gehen soll.

    Der Einsatz könnte nicht größer sein: Es geht um die Menschheit.

    Frank Hutter, Universität Freiburg

    Diese Antwort gibt Textbot ChatGPT, wenn man ihn nach der KI-Gefahr fragt:

    Künstliche Intelligenz (KI) ist zweifellos eine der aufregendsten und am schnellsten wachsenden Technologien der heutigen Zeit. Aber wie gefährlich ist sie wirklich?

    Einige Experten befürchten, dass KI in der Zukunft zu einem Problem werden könnte, insbesondere wenn sie nicht sorgfältig entwickelt und kontrolliert wird. Eine der größten Sorgen ist, dass KI möglicherweise so intelligent wird, dass sie die Kontrolle übernehmen und uns Menschen als unterlegene Spezies betrachten könnte. Diese Theorie, die als "Technologische Singularität" bekannt ist, wird von einigen als unvermeidlich angesehen, wenn KI-Systeme immer intelligenter werden und sich selbst verbessern.

    Ein weiteres Risiko besteht darin, dass KI-Systeme unbeabsichtigte Konsequenzen haben können. Wenn wir zum Beispiel ein autonomes Fahrzeug entwerfen, das selbstfahrend ist, um Verkehrsunfälle zu reduzieren, könnte es zu unerwarteten Folgen führen, wie einem Anstieg von Arbeitslosigkeit, da Lkw-Fahrer durch Maschinen ersetzt werden.

    Es gibt auch Bedenken hinsichtlich der Datenschutz- und Sicherheitsrisiken von KI-Systemen. Wenn wir KI-Systeme einsetzen, um unsere persönlichen Daten zu analysieren, besteht die Möglichkeit, dass diese Informationen in die falschen Hände geraten und von Cyberkriminellen oder feindlichen Nationen missbraucht werden.

    Allerdings gibt es auch viele positive Aspekte von KI. KI-Systeme können dabei helfen, menschliche Arbeit zu automatisieren und zu verbessern, was zu einer Steigerung der Produktivität und einer Verbesserung der Lebensqualität führen kann. Zum Beispiel können wir KI-Systeme nutzen, um Krankheiten schneller und genauer zu diagnostizieren und umfangreiche Datenanalysen durchzuführen.

    Um die potenziellen Gefahren von KI zu minimieren, müssen wir sicherstellen, dass KI-Systeme sorgfältig entwickelt und kontrolliert werden. Wir müssen sicherstellen, dass KI-Systeme ethischen Standards entsprechen und dass sie nicht in der Lage sind, Menschen oder die Gesellschaft zu schaden.

    Zusammenfassend lässt sich sagen, dass KI zwar potenziell gefährlich sein kann, aber auch viele Vorteile bietet. Um sicherzustellen, dass wir von den Vorteilen von KI profitieren können, müssen wir sicherstellen, dass wir sie sorgfältig entwickeln und kontrollieren.

    Quelle: ChatGPT

    Fake-Bild mit Daunenjacke
    :Warum das Papst-Foto nicht nur witzig ist

    Nein, Papst Franziskus hat nicht diese hippe Daunenjacke mit dem päpstlichen Kruzifix getragen. Das Foto hat eine Künstliche Intelligenz erstellt. Warum das nicht nur witzig ist.
    von Julia Klaus
    Papst Franziskus trägt eine weiße Daunenjacke und eine Kette mit einem silbernen großen Kruzifix: Dieses Foto wurde mit Künstlicher Intelligenz erstellt und ist nicht echt.
    Thema

    Mehr zu Künstlicher Intelligenz