"Autonome Waffensysteme sind Teil des neuen Wettrüstens", so Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter. Kennzeichen solcher Systeme sei, dass sie mit Hilfe von KI selbständig Entscheidungen treffen. Das können selbstnavigierende Panzer sein, unbemannte U-Boote oder Drohnen. Möglich wären aber auch KI-gesteuerte Systeme, die im Kampfeinsatz autonom Ziele erfassen und beschießen, ohne dass ein Mensch an der Entscheidung zu töten beteiligt ist. Experten sprechen in diesem Zusammenhang von der dritten großen Revolution der Kriegsführung - nach der Erfindung von Schießpulver und Nuklearwaffen.

Doch in Verbindung mit dem Einsatz von KI in Waffensystemen sind viele Fragen unbeantwortet, betont Küchenmeister. Etwa, ob die KI in der Lage ist, zwischen Soldaten und Zivilisten zu unterscheiden. Oder ob sie die Verhältnismäßigkeit eines Waffeneinsatzes einschätzen kann. Das seien komplexe Entscheidungen, die immer abhängig vom Kontext zu treffen sind. "Aber Maschinen verstehen keinen Kontext", so Küchenmeister, der sich für strenge Regelungen im Umgang mit autonomen Waffensystemen ausspricht.

Experten fordern Verbot

Doch lange bevor noch irgendeine international anerkannte Regelung in Sicht ist, nimmt die Menge an KI-gesteuerten Systemen rasant zu. "Das zeigt sich daran, dass die IT-Branche immer präsenter auf Waffenmessen ist", so Küchenmeister. Cloud Computing, maschinelles Lernen, autonomes Fahren oder Gesichtserkennung sind für die Waffenindustrie hochinteressant. Dabei stehen viele in der Branche den Entwicklungen kritisch gegenüber. Hunderte Wissenschafter und Unternehmen aus der Technologiebranche forderten bereits 2017 ein Verbot sich selbst lenkender Waffen.

Auch Bernhard Schneider, Leiter des Bereichs Recht und Migration des Österreichischen Roten Kreuzes, ist skeptisch: "Solange die KI bei autonomen Systemen nicht mindestens so gut oder besser funktioniert wie ein Mensch, sollte sie nicht eingesetzt werden." In jedem Fall aber müsse die Verantwortung im Gefecht bei den Kommandanten bleiben und dürfe nicht an Maschinen abgegeben werden. Schneider verweist außerdem auf die möglichen Auswirkungen des Einsatzes KI-gesteuerter Waffensysteme. Indem zunächst nicht Menschen, sondern Maschinen gegen den Feind geschickt werden, könnte die Hemmschwelle sinken, einen Konflikt zu beginnen. Auch würden autonome Waffensysteme es diktatorischen Regimen erleichtern, die eigene Bevölkerung unter Kontrolle zu halten. Denn anders als Polizei oder Militär haben Maschinen keine Bedenken, auf Menschenansammlung zu schießen, so Schneider.

Verhandlungen gescheitert

Doch alle Versuche, rechtlich bindende Verträge oder internationale Richtlinien im Umgang mit autonomen Waffensystemen zu schaffen, scheiterten bisher. Staaten wie die USA, Russland, Israel, Frankreich oder Großbritannien, die in der Forschung und Anwendung autonomer Systeme schon weit vorangeschritten sind, wollen sich durch einschränkende Verträge nicht blockieren lassen.

Fest steht aber auch, dass autonome Systeme nicht grundsätzlich schlecht sind. Sie können, verantwortungsvoll eingesetzt, auch Leben retten. So etwa KI-gesteuerte Roboter, die anstelle von Menschen Minen räumen. Der springende Punkt ist, ob wir in einer Welt leben möchten, in der Maschinen über Menschenleben entscheiden. Oder ob die Entscheidung zwischen Leben und Tod dem Mensch vorbehalten sein sollte. Mit allen Konsequenzen, die er dann auch weiterhin selbst zu tragen hat und nicht an eine Maschine abgeben kann.