Wien. Wieder Ärger für Donald Trump: Im Niger sind Anfang Oktober US-amerikanische Soldaten in einen Hinterhalt geraten, vier wurden getötet. Das Pentagon macht den IS für die Tat verantwortlich, doch noch sind die meisten Fragen ungeklärt. Auch republikanische Senatoren reagieren empört, fordern Aufklärung und wollen wissen, warum sich der US-Präsident zwei Wochen lang nicht zu diesem Vorfall geäußert hat. Es hagelt Vorwürfe: Wie konnten die GIs überrascht werden? Haben höhere Dienststellen versagt? Und ist vor einigen Monaten nicht Ähnliches im Jemen passiert?

Seit den Feldzügen in Afghanistan und im Irak nimmt es die US-Öffentlichkeit nicht einfach kritiklos hin, wenn tote GIs aus Transportfliegern gehievt werden. Schuldige werden gesucht und die Frage nach der Verantwortung gestellt. Dazu kommt, dass jährlich Milliarden an US-Dollar für die Behandlung chronisch kranker Ex-Soldaten draufgehen. Viele davon leiden unter posttraumatischen Belastungsstörungen. 25 Prozent aller US-Obdachlosen sind Kriegsheimkehrer, die Selbstmordrate ist enorm hoch.

Kriegsroboter - die Lösung
aller Probleme

Im Pentagon kennt man diese Probleme, seit vielen Jahren wird fieberhaft an einer Lösung gearbeitet. Und die wurde gefunden: Selbstdenkende Roboter, denen Gefühle fremd sind und die eigenständig entscheiden, wann, wo, wie und wen sie angreifen.

Die Vorteile liegen auf der Hand: Keine toten US-Soldaten, keine trauernden Angehörigen und keine unangenehmen Fragen mehr. Wer die überlegene Technologie hat, der gewinnt. Im schlechtesten Fall ist eben eine Maschine kaputt, finanziert aus Steuergeldern. Das Elend, das mit tötenden Blechsoldaten tausende Kilometer weit weg möglicherweise auch über Zivilisten gebracht wird, steht auf einem anderen Blatt.

Zwölf Milliarden Dollar hat das Pentagon im Jahr 2015 für die Erforschung intelligenter Waffen bereitgestellt, Trump hat diesen Betrag noch einmal erhöht. Autonome Waffen gelten in Washington, aber auch in Peking und Seoul und Tel Aviv als der nächste große technologische Schritt, als dritte militärische Revolution - nach der Erfindung des Schießpulvers und der Atombombe.

Der Unterschied zwischen automatischen und autonomen Waffen liegt auf der Hand - und er ist entscheidend. Die Drohnen, die bereits jetzt von den USA auf den verschiedenen Kriegsschauplätzen in Afghanistan und im Jemen, aber auch in Afrika eingesetzt werden, tun nur das, was der Operator im bequemen Ledersessel per Joystick anordnet.

Mittlerweile gibt man sich damit jedoch nicht mehr zufrieden. Die Weiterentwicklung heißt Northrop Grumman X47. Dieses Fluggerät kann bereits selbst Urteile fällen. "Theoretisch könnte man der X47 sagen: Gehe auf diese Mission, finde den Bösewicht, töte ihn. Und ich will nichts von Dir hören, bis Du wieder zurück bist", weiß eine US-Militärexpertin. Die X47B ist eine Kreuzung aus Drohne, Roboter und Kampfjet und ähnelt von ihrer Form her einer fliegenden Untertasse. Sie kann beispielsweise ohne Pilot von einem Flugzeugträger abheben und auch auf diesem landen.

Den ersten vollautomatischen Kampfroboter der Welt hat allerdings Samsung entwickelt. Der SGR-A1 kann Menschen identifizieren, als Ziel verfolgen, ein Maschinengewehr anwenden und nachladen. Der Roboter, der sich menschlicher Kontrolle schon zu weiten Teilen entzieht, wurde vom südkoreanischen Militär im Irak zur Bewachung und Verteidigung von Militärbasen erprobt.

Kurz vor der Serienreife ist der vom israelischen Hersteller General Robotics gebaute Kampfroboter "Dogo". Er soll laut Herstellern einen Infanteriesoldaten ziemlich vollständig ersetzen können. Die Maschine ist klein, wiegt nur zwölf Kilo und hat acht HD-Kameras an Bord. Sie ist in der Lage, Stiegen zu steigen und Hindernisse zu umgehen. Die Hersteller betonen, dass "Dogo" (noch) nicht selbstständig töten kann - er benötigt dazu den Befehl eines Soldaten, der das Gerät steuert.

Konzipiert ist diese Maschine für den Häuserkampf in engen Gassen, wie er zuletzt etwa bei der Eroberung der IS-Hochburg Mossul im Irak oder im syrischen Rakka notwendig war. Für Soldaten sind diese Einsätze extrem gefährlich und mit hohem Blutzoll verbunden.

Derzeit sind Kampfroboter in ihrer Wirkung allerdings noch massiv eingeschränkt, betont Joachim Hertzberg, Professor für Kybernetik an der Universität Osnabrück. Die bestehenden intelligenten Systeme seien weitgehend auf ein "kooperatives Umfeld" angewiesen. Gegner, die sich tarnen, verstecken oder sich ihrerseits mit High-Tech-Waffen wehren würden, seien den bestehenden Systemen oft noch überlegen. Auch Anja Dahlmann von der Berliner Stiftung Wissenschaft und Politik (SWP) verweist auf die Fehleranfälligkeit zumindest der gegenwärtigen autonomen Waffensysteme: "Man kann auch im zivilen Bereich beobachten, dass Systeme mit künstlicher Intelligenz relativ leicht manipuliert und ausgeschaltet werden können. Manchmal reicht dazu schon ein simples Post-it, das irgendwo hingeklebt wurde", sagte die Politologin der "Wiener Zeitung". Das könnten freilich Anfängerprobleme sein, die angesichts der Vehemenz, mit der geforscht wird, bald verschwinden könnten.