Wird KI uns zerstören? Was dafür spricht - und was dagegen

    Risiko Künstliche Intelligenz:Wird KI uns zerstören? Ein Für und Wider

    Christiane Hübscher
    von Christiane Hübscher
    |

    Künstliche Intelligenz entwickelt sich exponentiell, heißt es. Sie könnte uns schon bald überlegen sein, heißt es. Wie ernst ist es wirklich? Ein Für und Wider von zwei Experten.

    Fachleute warnen vor Risiken bei der KI
    Künstliche Intelligenz ist eine Gefahr für die Menschheit, sagen einige der Macher selbst. Die Politik will KI regulieren - nur wie?04.06.2023 | 4:08 min
    Die Warnung ist nur 23 Wörter lang, aber sie hat es in sich. Das Risiko der Auslöschung durch Künstliche Intelligenz sei real, heißt es in der Erklärung des Center for AI Safety in San Francisco. Es müsse mindestens so ernst genommen werden wie Pandemien oder ein Atomkrieg. Unter den Erstunterzeichnern: Sam Altman, Gründer von ChatGPT, ausgerechnet.
    Wow. Was für eine Ansage. Daniel Privitera ist Gründer des Zentrums für KI-Risiken und -Auswirkungen (KIRA) und gehört zu den Unterzeichnern der Erklärung. Der Oxford-Doktorand nennt schon die aktuell entwickelten KI-Systeme Blackboxen, ...

    ... deren inneres Funktionieren wir überhaupt nicht verstehen. Und wenn man etwas nicht versteht, dann kann man es natürlich auch nicht verlässlich kontrollieren.

    Daniel Privitera, Unterzeichner der Erklärung

    Vergleich mit Pandemien
    :Experten warnen vor Vernichtung durch KI

    Zuletzt haben viele Experten eine Pause bei der Entwicklung von Künstlicher Intelligenz gefordert. Jetzt legen KI-Experten mit einer dramatischen Warnung nach - mit nur einem Satz.
    Glasfaserkabel und Mikrochips

    Ist die Warnung nur ein PR-Stunt?

    Matthias Spielkamp, Mitgründer von AlgorithmWatch, ist hingegen sauer über das Alarm-Statement, "weil das, was da behauptet wird, sehr, sehr unwahrscheinlich ist". Er unterstellt Sam Altman einen PR-Stunt, um "davon abzulenken, dass in der EU schon eine KI-Verordnung unterwegs ist und er einfach damit erreichen möchte, dass die Leute in eine andere Richtung gucken und sagen: Oh, wir haben hier wichtigere Probleme."
    Privitera wiederum hat überzeugt, dass das Statement neben ChatGPT-Gründer Sam Altman eben auch Hunderte KI-Spitzenforscher unterschrieben haben - von der Stanford Universität bis zum Massachussetts Institute of Technology (MIT). Sie dürften, sagt er, keine finanziellen Interessen daran haben.
    Verkehrsminister Volker Wissing während eines Pressetermins in Hamburg.
    Digitalminister Volker Wissing (FDP) spricht sich im ZDF dafür aus, Künstliche Intelligenz beherrschbar zu machen und sie zu regulieren - mit einer Einschränkung.04.06.2023 | 0:35 min

    Wie kann KI reguliert werden?

    Über das Worst Case Scenario, also die Vernichtung der Menschheit durch Maschinen, haben beide Experten unterschiedliche Ansichten. "Eine unsinnige Science Fiction-Vorstellung", nennt es Matthias Spielkamp von AlgorithmWatch. "Wir sind die Menschen, und wir kontrollieren die Systeme und die KI."
    Privitera hingegen ist "sehr besorgt". Er sieht ein Wettrennen von KI-Unternehmen ohne demokratisch legitimierte Kontrolle. Was hilft? Kann der Mensch notfalls nicht einfach den Stecker ziehen, wenn die Maschinen zu übernehmen drohen?
    03.06.2023, Brüssel: EU und USA Abgeordnete bei Fototermin
    Die Politik versucht, mit den ständigen Erneuerungen der KI-Technologien Schritt zu halten. Auch Digitalminister Volker Wissing fordert mehr Transparenz und zeitnahe Regulierungen.03.06.2023 | 1:19 min

    Warum "Stecker ziehen" nicht so einfach geht

    "Das ist natürlich die erste Hoffnung, die man hat, wenn es ungemütlich wird", sagt Privitera. "Das geht aber nicht, weil man sich so eine KI nicht als physische Maschine vorstellen sollte, wo man eben einfach nur die Stromzufuhr kappt. Es sind Programme, die sich kopieren und verschicken lassen."
    Daniel Privitera, selbst gerade von einer Silicon Valley-Reise zurückgekehrt, fürchtet, "dass diese Modelle sich eines Tages auch selbst vervielfältigen und kopieren können und zudem immer besser darin werden, Menschen zu manipulieren."

    EU will KI durch Selbstkontrolle regulieren

    Aktuell arbeitet die EU an ihrem sogenannten "AI Act", der KI-Verordnung. Sie ist damit weiter als beispielsweise die USA. Doch das Gesetz wird noch mindestens zwei Jahre brauchen, so sagt es die Kommission selbst. Offenbar getrieben von der galoppierenden technologischen Entwicklung, kündigt Kommissarin Margrethe Vestager nun fürs erste eine Vereinbarung über freiwillige Selbstkontrolle der Industrie an.

    Neben KI-Systemen mit "unannehmbarem Risiko" gibt es "Hochrisiko-KI-Systeme", die "ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen" und nur betrieben werden dürfen, wenn unter anderem:
    • eine durchgehende Risikoanalyse die bekannten und vorhersehbaren Risiken dokumentiert
    • Qualitätskriterien bei Trainingsdaten eingehalten werden
    • eine Aufzeichnung von KI-Vorgängen während des Betriebs stattfindet
    • eine Beaufsichtigung durch Menschen gewährleistet wird

    Zu "Hochrisiko-KI-Systemen" gehören solche, die zum Beispiel in den Bereichen der biometrischen Identifizierung (z.B. Gesichtserkennung), der kritischen Infrastruktur wie Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung oder in der Strafverfolgung verwendet werden.

    Für KI-Systeme, die ein "geringes" oder "minimales Risiko" aufweisen, will die EU Transparenzpflichten verankern, wenn Anwendungen mit Menschen interagieren, eingesetzt werden, um Emotionen zu erkennen oder Inhalte erzeugen oder manipulieren ("Deepfakes"). In diesen Fällen muss gewährleistet werden, dass Nutzer über den KI-Einsatz oder -Ursprung Bescheid wissen - davon ausgenommen sollen unter bestimmten Bedingungen jeweils KI-Systeme werden, die "gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassen" sind.

    Quelle: Europäische Kommission

    Spielkamp erwartet sich davon nichts. "Wir haben das in der Vergangenheit viel zu oft gesehen, dass die Politik darauf gesetzt hat, und dann war es Schall und Rauch. Das heißt, es müssen selbstverständlich Gesetze gemacht werden, die dann auch durchsetzbar sein müssen." Auch Privitera sieht das so. Kontrolle müsse für alle verpflichtend und bindend sein.

    Wasserzeichen für maschinelle Bilder?

    Unbestritten dürfte durch neue KI-Bilderstellungssoftware wie z.B. Midjourney eine Flut von Fake-Bildern im Netz heranrollen. Eine technische Lösung, um die Fakes als solche erkennbar zu machen, könnten digitale Wasserzeichen sein. Spielkamp sagt:

    Man könnte die Anbieter verpflichten, dass bei jedem Bild, das von so einem System erzeugt wird, eben ein gewisses Muster in das Bild hinein codiert wird, das das menschliche Auge nicht sieht, das aber von wiederum einem anderen Computer erkannt werden kann.

    Matthias Spielkamp zu Wasserzeichen in KI-Bildern

    Doch was, wenn ein anderes System diese Wasserzeichen wieder entfernt? Daniel Privitera glaubt nicht an eine 100-Prozent-Lösung im Kampf gegen Fakes. Er fordert deshalb externe Einsicht in die Industrie, bevor diese Dinge auf den Markt kommen.

    Fake-Bild mit Daunenjacke
    :Warum das Papst-Foto nicht nur witzig ist

    Nein, Papst Franziskus hat nicht diese hippe Daunenjacke mit dem päpstlichen Kruzifix getragen. Das Foto hat eine Künstliche Intelligenz erstellt. Warum das nicht nur witzig ist.
    von Julia Klaus
    Papst Franziskus trägt eine weiße Daunenjacke und eine Kette mit einem silbernen großen Kruzifix: Dieses Foto wurde mit Künstlicher Intelligenz erstellt und ist nicht echt.

    Offene Debatte im Bundestag gefordert

    Spielkamp setzt vor allem auf Aufklärung über mögliche Manipulation. Schon jetzt gebe es Bilder, die sich nicht mehr von Fotos unterscheiden ließen. Da hilft nur die Frage, ob ein Bild und seine Message glaubwürdig sei.
    Digitalminister Volker Wissing (FDP) sagt der ZDF-Sendung "Berlin direkt", er wolle KI regulieren. Dabei wünschen sich Experten wie Daniel Privitera von der deutschen Politik, "dass in Bundestagsdebatten über das Thema KI diskutiert wird wie über Sterbehilfe zum Beispiel: Ohne Fraktionszwang." Das Thema sei zu groß und zu wichtig für parteipolitische Spielchen.

    Mehr zu KI