Berlin. Wie kann man die militärische Nutzung neuer Technologien und künstlicher Intelligenz in Zukunft kontrollieren? Darauf hat die traditionelle Rüstungskontrolle ungenügend Antworten. Bei einer hochkarätigen Expertenkonferenz im Auswärtigen Amt in Berlin diskutierte man daher, wie man für neue Waffentechnologien internationale Regeln schaffen kann. Es handelt sich konkret um vier Bereiche: autonome Waffensysteme wie Killer-Roboter, Biotechnologien, Cyber-Waffen und neue Trägersysteme für Raketen.

Frank Sauer, Experte für autonome Waffen von der Universität der Bundeswehr München, erklärt im Interview, warum autonome Waffensysteme so gefährlich sind und warnt davor, dass ein Rüstungswettlauf bereits im Gange ist.

"Wiener Zeitung":Was genau ist ein autonomes Waffensystem?

Frank Sauer: Ein autonomes Waffensystem ist ein System, das ohne menschliches Zutun Ziele auswählt und bekämpft. Es gibt gemäß dieser Definition schon seit etwa 30 Jahren autonome Waffensysteme, wie etwa Raketenabwehrsysteme, die eine herannahende Rakete erkennen und abschießen, ohne dass dabei ein Mensch den Knopf drücken muss. Neu ist allerdings, dass dank weiterentwickelter Technologien diese Form der Autonomie nun zunehmend auch in anderen Waffensystemen Einzug hält. Als Beispiel könnte man hier die Kamikazedrohne "Harpy" erwähnen, ein israelisches System zur Unterdrückung der gegnerischen Luftabwehr, das sich mit seinem Sprengkopf selbst ins Ziel stürzen kann, ohne vorher einen Menschen fragen zu müssen.

Wenn nun in Zukunft alle möglichen Waffensysteme, wie etwa Panzer, Flugzeuge oder Schiffe, einmal so funktionieren, muss man dringend über die Implikationen für das Kriegsgeschehen und das Völkerrecht nachdenken.

Sie meinen, wenn kein Mensch hinter der Entscheidung zur Abwehr oder zum Angriff steht, kann man niemanden zur Rechenschaft ziehen?

Ja, hier herrscht eine Verantwortungslücke, und darauf gibt es völkerrechtlich noch keine Antwort. Hier muss dringend etwas unternommen werden.

Man hört auch, dass es bei den neuen Technologien und autonomen Waffensystemen bereits einen Rüstungswettlauf gibt. Stimmt das?

Ja, wir beobachten seit einigen Jahren einen Wettlauf, vor allem zwischen China und den USA. In den USA hat das technologische Aufrüsten während der Obama-Administration begonnen. Washington geht es darum, gegenüber dem aufholenden Peking den eigenen militärischen Vorsprung zu wahren.

Worin besteht die Gefahr, wenn der Rüstungswettlauf nicht gestoppt wird?

Künstliche Intelligenz im Militär ist von der Bedeutung her ungefähr so wie der Umstieg von der Pferdekutsche auf den Verbrennungsmotor. Das heißt, dass die neuen Technologien mit Sicherheit militärisch genutzt werden, wir uns aber über das "Wie" erst noch verständigen müssen. Es drohen etwa ganz neue Eskalationsdynamiken. Unvorhergesehene Interaktionen von Algorithmen kennen wir bereits von den Finanzmärkten. Autonom entscheidende Waffensysteme, oft Killer-Roboter genannt, könnten analog dazu beginnen, aufeinander zu schießen, ohne dass dabei ein Mensch die Kontrolle hat.