Sie sind hier:

UN-Konferenz in Genf - Amnesty: Killerroboter verbieten

Datum:

Sollen der Entwicklung von Killerrobotern Grenzen gesetzt werden? Darüber beraten ab heute Abrüstungsexperten aus aller Welt. Amnesty fordert ein Verbot der Kampfmaschinen.

Kampfroboter
Experten sind besorgt über Kampfroboter.
Quelle: picture-alliance/ dpa

Es können schießende Roboter sein, sich selbst steuernde Drohnen oder unbemannte U-Boote: Tödliche autonome Waffen, auch Killerroboter genannt. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab. Vertreter aus mehr als 75 Ländern erörtern ab Montag in Genf, wie derlei Waffen international geächtet werden können.

Amnesty: Kein Science-Fiction mehr

Amnesty International fordert die weltweite Ächtung. Die Teilnehmerstaaten in Genf sollten sich für ein völkerrechtliches Verbot einsetzen. Die Menschenrechtsorganisation warnt vor "einer Zukunft, in der die Menschen aus den Entscheidungsprozessen beim Einsatz von Gewalt ausgeschlossen sein könnten". Killerroboter seien "nicht mehr Stoff nur von Science-Fiction", sagte Amnesty-Mitarbeiterin Rasha Abdul Rahim. Kritiker verlangen bis Ende der Woche ein klares Verhandlungsmandat für einen internationalen Vertrag.

"Es muss jetzt dringend etwas passieren, denn sonst ist die Technologie in fünf bis zehn Jahren so weit verbreitet und so billig, dass sich jeder solche Waffen leisten kann", mahnt Thomas Küchenmeister, dessen Organisation Facing Finance Mitglied der internationalen "Kampagne gegen Killerroboter" ist. "Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand." Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

Schub durch Künstliche Intelligenz

Bei der letzten UN-Beratungsgrunde im April hatten sich laut Amnesty 26 Staaten für ein komplettes Verbot ausgesprochen. Mehrere wichtige Staaten lehnten ein Verbot aber ab, kritisierte Amnesty. Darunter seien Staaten, die an der Entwicklung solcher Systeme arbeiteten, wie Frankreich, die USA, Großbritannien, Israel, Russland und Südkorea.

Autonome Waffen werden durch die rasante Entwicklung Künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne dass ein Mensch an der Entscheidung noch beteiligt ist. Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau programmiert werden.

Berlin will Ächtung

"Es gibt eine Grauzone zwischen automatischen und autonomen Waffen", sagt Michael Biontino, bis vor kurzem deutscher Abrüstungsbotschafter in Genf. "Autonome Waffen machen die Zielerkennung selbst." Die Linie der Bundesrepublik sei klar: "Für uns kann die Entscheidung über Leben und Tod nicht einer Maschine übertragen werden", sagte Biontino im Frühjahr. Auch im Koalitionsvertrag heißt es: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten."

Gemeinsam mit Frankreich hat Deutschland einen Verhaltenskodex vorgeschlagen, wonach alle heutigen und künftigen Waffensysteme menschlicher Kontrolle unterliegen müssen. Für Aktivist Küchenmeister ist das aber nicht genug: "Ein Verhaltenskodex ist nicht völkerrechtlich verbindlich." Die Kampagne gegen Killerroboter verlangt einen verbindlichen Vertrag.

"Roboter werden nicht die Welt übernehmen"

Aber viele Länder wollen sich in ihrer Waffenentwicklung nicht einschränken lassen. So besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz. Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen und ist besorgt über die Entwicklung. "Angriffe sind streng auf militärische Ziele zu beschränken", heißt es in den Genfer Konventionen etwa. "Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen", so Davison.

"Man sollte die Sache nicht dramatisieren", wiegelte dagegen der Vorsitzende der Beratungen, der indische Botschafter Amandeep Gill, im Frühjahr ab. "Roboter werden nicht die Welt übernehmen."

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.