Zum Hauptinhalt springen

Wenn Killer-Roboter aufeinander schießen

Von Stephanie Liechtenstein

Politik

Künstliche Intelligenz verändert die Kriege der Zukunft, analysiert Experte Sauer im Gespräch mit der "Wiener Zeitung".


Berlin. Wie kann man die militärische Nutzung neuer Technologien und künstlicher Intelligenz in Zukunft kontrollieren? Darauf hat die traditionelle Rüstungskontrolle ungenügend Antworten. Bei einer hochkarätigen Expertenkonferenz im Auswärtigen Amt in Berlin diskutierte man daher, wie man für neue Waffentechnologien internationale Regeln schaffen kann. Es handelt sich konkret um vier Bereiche: autonome Waffensysteme wie Killer-Roboter, Biotechnologien, Cyber-Waffen und neue Trägersysteme für Raketen.

Frank Sauer, Experte für autonome Waffen von der Universität der Bundeswehr München, erklärt im Interview, warum autonome Waffensysteme so gefährlich sind und warnt davor, dass ein Rüstungswettlauf bereits im Gange ist.

"Wiener Zeitung":Was genau ist ein autonomes Waffensystem?

Frank Sauer: Ein autonomes Waffensystem ist ein System, das ohne menschliches Zutun Ziele auswählt und bekämpft. Es gibt gemäß dieser Definition schon seit etwa 30 Jahren autonome Waffensysteme, wie etwa Raketenabwehrsysteme, die eine herannahende Rakete erkennen und abschießen, ohne dass dabei ein Mensch den Knopf drücken muss. Neu ist allerdings, dass dank weiterentwickelter Technologien diese Form der Autonomie nun zunehmend auch in anderen Waffensystemen Einzug hält. Als Beispiel könnte man hier die Kamikazedrohne "Harpy" erwähnen, ein israelisches System zur Unterdrückung der gegnerischen Luftabwehr, das sich mit seinem Sprengkopf selbst ins Ziel stürzen kann, ohne vorher einen Menschen fragen zu müssen.

Wenn nun in Zukunft alle möglichen Waffensysteme, wie etwa Panzer, Flugzeuge oder Schiffe, einmal so funktionieren, muss man dringend über die Implikationen für das Kriegsgeschehen und das Völkerrecht nachdenken.

Sie meinen, wenn kein Mensch hinter der Entscheidung zur Abwehr oder zum Angriff steht, kann man niemanden zur Rechenschaft ziehen?

Ja, hier herrscht eine Verantwortungslücke, und darauf gibt es völkerrechtlich noch keine Antwort. Hier muss dringend etwas unternommen werden.

Man hört auch, dass es bei den neuen Technologien und autonomen Waffensystemen bereits einen Rüstungswettlauf gibt. Stimmt das?

Ja, wir beobachten seit einigen Jahren einen Wettlauf, vor allem zwischen China und den USA. In den USA hat das technologische Aufrüsten während der Obama-Administration begonnen. Washington geht es darum, gegenüber dem aufholenden Peking den eigenen militärischen Vorsprung zu wahren.

Worin besteht die Gefahr, wenn der Rüstungswettlauf nicht gestoppt wird?

Künstliche Intelligenz im Militär ist von der Bedeutung her ungefähr so wie der Umstieg von der Pferdekutsche auf den Verbrennungsmotor. Das heißt, dass die neuen Technologien mit Sicherheit militärisch genutzt werden, wir uns aber über das "Wie" erst noch verständigen müssen. Es drohen etwa ganz neue Eskalationsdynamiken. Unvorhergesehene Interaktionen von Algorithmen kennen wir bereits von den Finanzmärkten. Autonom entscheidende Waffensysteme, oft Killer-Roboter genannt, könnten analog dazu beginnen, aufeinander zu schießen, ohne dass dabei ein Mensch die Kontrolle hat.

Ohne menschliche Kontrolle haben wir es mit einem erhöhten Risiko für einen unbeabsichtigten Krieg zu tun. Und wenn zwei autonome Systeme miteinander interagieren, geht das so schnell, dass der Mensch, wenn er denn eingreift, viel zu spät dran ist. China hat hierfür den Begriff der Schlachtfeldsingularität entwickelt. Das ist der Punkt, ab dem die Entwicklung auf dem Schlachtfeld so schnell geht, dass sie durch den Menschen nicht mehr gestoppt werden kann.

Gibt es bereits internationale Bemühungen, diese Waffensysteme zu begrenzen oder zu verbieten?

Bei den Vereinten Nationen in Genf gibt es seit 2014 diplomatischen Austausch und seit 2016 auch eine Expertengruppe, die zu diesem Thema Gespräche führt. Hier ist wichtig, zu betonen, dass es sich wirklich nur um ein Gesprächsformat handelt und nicht um ein Verhandlungsformat. Es gibt derzeit verhärtete Fronten zwischen zwei Blöcken. Es gibt einerseits eine Gruppe von 28 Staaten, zu denen auch Österreich gehört, die sofort einen völkerrechtlich bindenden Vertrag erwirken wollen. Eine zweite Gruppe, bestehend im Kern aus den Vereinigten Staaten, Russland, Israel und Australien, möchte vollautonome Waffensysteme eigentlich nicht verbieten, sondern unreguliert weiterentwickelten. Zwischen diesen beiden Blöcken gibt es eine weitere Gruppe, angeführt von Deutschland und Frankreich, die eine Mittelposition bezieht und für eine unverbindliche politische Deklaration als ersten Schritt wirbt.

China spielt ein Verwirrspiel und hat sich in diesem Zuge sogar für ein Verbot der Nutzung vollautonomer Waffen ausgesprochen, diese Position allerdings bisher noch nicht glaubwürdig machen können.

Denken Sie, wird man sich in Zukunft trotzdem irgendwann auf einen Vertrag einigen? Es gibt ja schon ähnliche Verträge, etwa zu Landminen.

Ich denke, dass das Jahr 2019 ein entscheidendes Jahr sein wird. Es wäre zu hoffen, dass für die Expertengruppe der Vereinten Nationen ein Verhandlungsmandat erwirkt wird, mit der Aussicht, einen Vertrag zu verhandeln. Sehr wahrscheinlich ist das nicht. Es könnte daher ein anderer Weg eingeschlagen werden. Ähnlich wie beim Atomwaffenverbotsvertrag, bei dem Österreich auch federführend dabei war, könnten einige Staaten über die UN-Generalversammlung einen Vertrag zum Verbot autonomer Waffen verhandeln und annehmen. Im Gegensatz zur UN-Expertengruppe in Genf, in der alles einstimmig entschieden werden muss, kann man hier mit einfachen Mehrheiten arbeiten. Das Problem dabei ist, dass womöglich all jene Staaten, die diese Waffen hauptsächlich nutzen, nicht mitmachen. Man könnte den UN-Rahmen auch verlassen und eine Konferenz einberufen, bei der ein Dokument verabschiedet wird.

Jedoch muss man auch hier wieder davon ausgehen, dass die wichtigen Länder daran nicht teilnehmen. Zu hoffen wäre, dass die Staaten dieses Jahr in Genf im Rahmen der Vereinten Nationen im Konsens einen Schritt vorankommen.

Frank Sauer forscht an der Universität der Bundeswehr München über künstliche Intelligenz und Rüstungstechnologie.