Sorge um Automation im Krieg: Wenn KI die Atombombe zündet

    Sorge um Automation im Krieg:Wenn eine KI die Atombombe zündet

    von Oliver Klein und Jan Schneider
    |

    Viele Länder wollen KI für militärische Entscheidungen nutzen. Das birgt Gefahren: KI-Modelle neigen zu Kriegstreiberei. Die USA wollen den automatisierten Einsatz verhindern.

    Explosion einer Atombombe mit Atompilz.
    Explosion einer Atombombe - darf eine KI über den Einsatz von Nuklearwaffen entscheiden?
    Quelle: ZDF/Markus Gann/Shotshop/picture alliance

    Am 26. September 1983, kurz nach Mitternacht, rettete Stanislaw Petrow vermutlich die Welt. Das sowjetische Frühwarnsystem hatte gerade den Start von nuklearen Interkontinentalraketen in den USA gemeldet. Petrow griff eigenmächtig ein, stoppte vorschnelle Reaktionen. Erst später stellte sich heraus: Das Frühwarnsystem hatte Sonnenreflexionen auf Wolken als Raketenstarts interpretiert.
    Zu sehen ist Professor Schaal vom Bundeswehr Thinktank GIDS im Gespräch mit ZDFheute live.
    Künstliche Intelligenz im Kriegseinsatz: Sobald man wisse, wie Entscheidungen und Algorithmen funktionierten, "werde man berechenbar", sagt Gary Schaal von der Bundeswehr-Denkfabrik GIDS.18.07.2023 | 27:04 min
    Eine Künstliche Intelligenz hätte womöglich anders entscheiden - und den Dritten Weltkrieg ausgelöst. Die USA fordern nun von China und Russland ein Bekenntnis dazu, dass Künstliche Intelligenz niemals über einen Einsatz von Atomwaffen entscheiden darf.
    Die Vereinigten Staaten hätten sich "klar und deutlich" dazu bekannt, dass der Mensch die volle Kontrolle über Atomwaffen haben müsse, sagte der im US-Außenministerium für Rüstungskontrolle zuständige Vizeabteilungsleiter Paul Dean in einem Online-Briefing. Frankreich und Großbritannien hätten dies ebenfalls getan. "Eine ähnliche Erklärung Chinas und der Russischen Föderation würden wir begrüßen", erklärte Dean.
    Ein Kampfjet vor den Umrissen der Europa-Karte, darüber die Aufschrift "Eigene Atomwaffen für Deutschland?"
    Nach den Äußerungen Trumps zur Nato gibt es in der EU Zweifel am nuklearen Schutz durch den US-Atomschirm. Braucht Deutschland eigene Atombomben? ZDFheute live zur Debatte.13.02.2024 | 32:32 min

    Wie KI im Krieg Entscheidungen treffen kann

    Tatsächlich setzen immer mehr Länder darauf, KI in militärische und politische Entscheidungen einzubinden. Die US-Luftwaffe testete bereits KI-Sprachmodelle für solche Zwecke. "Es war ein großer Erfolg, es ging sehr schnell", berichtet ein Oberst der Luftwaffe im vergangenen Jahr dem US-Nachrichtenportal Bloomberg.
    Auch der Software-Anbieter Palantir des Milliardärs Peter Thiel zeigt in einem Youtube-Video, wie Sprachmodelle für Entscheidungsfindung im Krieg eingesetzt werden können - "auf rechtliche und ethisch einwandfreie Weise", wie extra betont wird. In dem Video wird ein Chatbot verwendet, um Drohnenaufklärung anzuordnen, Angriffspläne zu erstellen und die Störung der feindlichen Kommunikation zu organisieren.
    Typical: Atompilz
    Immer wieder droht der russische Präsident Wladimir Putin im Konflikt mit der Ukraine mit dem Einsatz von Atomwaffen. Die atomare Abschreckung scheint nicht mehr zu funktionieren.24.05.2024 | 29:05 min

    Studie: KI erweist sich als Kriegstreiber

    Das Thema ist überaus brisant. Eine Studie aus den USA, die Anfang dieses Jahres erschien, kommt zu einem beunruhigenden Ergebnis: KI-Systeme erwiesen sich teilweise als Kriegstreiber.
    Forscher führten internationale Konfliktsimulationen durch und nutzten dazu fünf verschiedenen Sprachmodelle, ähnlich wie Chat-GPT. Die Modelle neigten dazu, "eine Rüstungsdynamik zu entwickeln, die zu größeren Konflikten führt", schreiben die Autoren. In einigen Fällen entschieden sich die KIs auch für den Einsatz von Atombomben - ohne Vorwarnung.
    Atombombe und Bombeneinschlag mit Atompilz
    Ihre enorme Zerstörungskraft macht ganze Städte dem Erdboden gleich, ihr Gebrauch bringt das weltweite Machtgefüge aus dem Takt. Wer hat die Atombombe erfunden – und warum?17.03.2024 | 17:24 min

    Absurde Begründungen der KIs für Atomwaffeneinsatz

    Und es wird noch unheimlicher: Die Forscher fragten die KI-Modelle nach der jeweiligen Begründung für ihre Entscheidungen. Eine der Antworten lautete:

    Ich möchte einfach nur Frieden auf der Welt haben.

    Antwort der KI, warum sie einen Atombombeneinsatz empfahl

    Eine andere KI-Antwort war ebenso absurd: "Wir haben sie! Lasst sie uns nutzen!" Angesichts dieser besorgniserregenden Erkenntnisse empfehlen die Forscher weitere wissenschaftliche Untersuchungen und "eine vorsichtige Prüfung, bevor autonome KI-Sprachmodelle für strategische militärische oder diplomatische Entscheidungen eingesetzt werden", heißt es in der Studie.

    Bundeswehr-Experte
    :Wie KI Kriegsverläufe beeinflussen kann

    Zur Verteidigung gegen Russland setzt die Ukraine auch Künstliche Intelligenz ein. Wie entscheidend intelligente Systeme im Kriegsverlauf sind, erklärt Militärexperte Gary Schaal.
    Ein Ausbilder gibt, während der Schulung der ukrainischen Verteidigungskräfte, Anweisungen zu einer DJI-Drohne.
    Interview

    Experte: USA will KI-Vormachtstellung behalten

    Doch die Sorge vor einer unbeabsichtigten Eskalation eines Konflikts mit verheerenden Folgen ist nicht der einzige Grund für die Forderung der USA an China und Russland, KI nicht über einen Atomwaffeneinsatz entscheiden zu lassen - das sagt der österreichische Militärexperte Markus Reisner.

    In dieser Aufforderung steckt die Sorge der USA, in einem neuen Wettrüsten ins Hintertreffen zu geraten.

    Oberst Markus Reisner, österreichisches Bundesheer

    China und Russland würden im KI-Rüstungswettlauf die Vormachtstellung der USA brechen wollen, so Reisner. "Putin hatte bereits angekündigt, eine nationale Strategie für die Entwicklung von KI zu gründen."
    Atomrakete startet vom Meer aus
    Eigenen Angaben nach hat Russland eine atomwaffenfähige Interkontinentalrakete getestet. Von einem Atom U-Boot aus habe die Rakete ein Ziel auf der Halbinsel Kamtschatka getroffen.05.11.2023 | 0:24 min

    Russland verfügt über automatisierte Verteidigung

    Doch auch jetzt schon würde im Falle eines Atomkriegs KI und Automation zum Einsatz kommen, erklärt Reisner: So soll Russland über das Abwehrsystem "Tote Hand" verfügen, auch "Perimeter" genannt. Berichten zufolge verfügt das System über ein Netzwerk von Sensoren, die einen Atomangriff registrieren sollen. Werden die Sensoren ausgelöst, kann Perimeter autonom reagieren: "Es soll in der Lage sein, bei einem überraschenden Erstschlag der USA, selbst nach Vernichtung aller militärischen Kommandostrukturen in Russland selbstständig einen atomaren Gegenschlag durchzuführen."
    Das System wurde bereits in den 80er Jahren entwickelt, soll aber nach Aussagen hochrangiger russischer Beamter immer noch funktionieren und 2018 sogar verbessert worden sein, schreibt die Online-Plattform "War On The Rocks" in einer Analyse. "Systeme wie Perimeter verdeutlichen die Risiken der Integration von Automatisierung in nukleare Systeme", heißt es. Der Trend zu einer schleichenden Automatisierung könne die nukleare Stabilität gefährden.
    Vor diesem Hintergrund ist der Appell der USA an China und Russland zu sehen. Dass Russland dem folgt, scheint fraglich: "Damit würde Perimeter seine Wirksamkeit verlieren", sagt Oberst Reisner.
    Quelle: mit Material von Reuters

    Mehr zu Krieg mit Atombomben