Zum Hauptinhalt springen

Killer aus Blech

Von Michael Schmölzer und Gerhard Lechner

Politik

Autonome Kampfroboter: Kritiker warnen, dass die Hemmschwelle für neue Kriege weiter sinken wird.


Wien. Wieder Ärger für Donald Trump: Im Niger sind Anfang Oktober US-amerikanische Soldaten in einen Hinterhalt geraten, vier wurden getötet. Das Pentagon macht den IS für die Tat verantwortlich, doch noch sind die meisten Fragen ungeklärt. Auch republikanische Senatoren reagieren empört, fordern Aufklärung und wollen wissen, warum sich der US-Präsident zwei Wochen lang nicht zu diesem Vorfall geäußert hat. Es hagelt Vorwürfe: Wie konnten die GIs überrascht werden? Haben höhere Dienststellen versagt? Und ist vor einigen Monaten nicht Ähnliches im Jemen passiert?

Seit den Feldzügen in Afghanistan und im Irak nimmt es die US-Öffentlichkeit nicht einfach kritiklos hin, wenn tote GIs aus Transportfliegern gehievt werden. Schuldige werden gesucht und die Frage nach der Verantwortung gestellt. Dazu kommt, dass jährlich Milliarden an US-Dollar für die Behandlung chronisch kranker Ex-Soldaten draufgehen. Viele davon leiden unter posttraumatischen Belastungsstörungen. 25 Prozent aller US-Obdachlosen sind Kriegsheimkehrer, die Selbstmordrate ist enorm hoch.

Kriegsroboter - die Lösungaller Probleme

Im Pentagon kennt man diese Probleme, seit vielen Jahren wird fieberhaft an einer Lösung gearbeitet. Und die wurde gefunden: Selbstdenkende Roboter, denen Gefühle fremd sind und die eigenständig entscheiden, wann, wo, wie und wen sie angreifen.

Die Vorteile liegen auf der Hand: Keine toten US-Soldaten, keine trauernden Angehörigen und keine unangenehmen Fragen mehr. Wer die überlegene Technologie hat, der gewinnt. Im schlechtesten Fall ist eben eine Maschine kaputt, finanziert aus Steuergeldern. Das Elend, das mit tötenden Blechsoldaten tausende Kilometer weit weg möglicherweise auch über Zivilisten gebracht wird, steht auf einem anderen Blatt.

Zwölf Milliarden Dollar hat das Pentagon im Jahr 2015 für die Erforschung intelligenter Waffen bereitgestellt, Trump hat diesen Betrag noch einmal erhöht. Autonome Waffen gelten in Washington, aber auch in Peking und Seoul und Tel Aviv als der nächste große technologische Schritt, als dritte militärische Revolution - nach der Erfindung des Schießpulvers und der Atombombe.

Der Unterschied zwischen automatischen und autonomen Waffen liegt auf der Hand - und er ist entscheidend. Die Drohnen, die bereits jetzt von den USA auf den verschiedenen Kriegsschauplätzen in Afghanistan und im Jemen, aber auch in Afrika eingesetzt werden, tun nur das, was der Operator im bequemen Ledersessel per Joystick anordnet.

Mittlerweile gibt man sich damit jedoch nicht mehr zufrieden. Die Weiterentwicklung heißt Northrop Grumman X47. Dieses Fluggerät kann bereits selbst Urteile fällen. "Theoretisch könnte man der X47 sagen: Gehe auf diese Mission, finde den Bösewicht, töte ihn. Und ich will nichts von Dir hören, bis Du wieder zurück bist", weiß eine US-Militärexpertin. Die X47B ist eine Kreuzung aus Drohne, Roboter und Kampfjet und ähnelt von ihrer Form her einer fliegenden Untertasse. Sie kann beispielsweise ohne Pilot von einem Flugzeugträger abheben und auch auf diesem landen.

Den ersten vollautomatischen Kampfroboter der Welt hat allerdings Samsung entwickelt. Der SGR-A1 kann Menschen identifizieren, als Ziel verfolgen, ein Maschinengewehr anwenden und nachladen. Der Roboter, der sich menschlicher Kontrolle schon zu weiten Teilen entzieht, wurde vom südkoreanischen Militär im Irak zur Bewachung und Verteidigung von Militärbasen erprobt.

Kurz vor der Serienreife ist der vom israelischen Hersteller General Robotics gebaute Kampfroboter "Dogo". Er soll laut Herstellern einen Infanteriesoldaten ziemlich vollständig ersetzen können. Die Maschine ist klein, wiegt nur zwölf Kilo und hat acht HD-Kameras an Bord. Sie ist in der Lage, Stiegen zu steigen und Hindernisse zu umgehen. Die Hersteller betonen, dass "Dogo" (noch) nicht selbstständig töten kann - er benötigt dazu den Befehl eines Soldaten, der das Gerät steuert.

Konzipiert ist diese Maschine für den Häuserkampf in engen Gassen, wie er zuletzt etwa bei der Eroberung der IS-Hochburg Mossul im Irak oder im syrischen Rakka notwendig war. Für Soldaten sind diese Einsätze extrem gefährlich und mit hohem Blutzoll verbunden.

Derzeit sind Kampfroboter in ihrer Wirkung allerdings noch massiv eingeschränkt, betont Joachim Hertzberg, Professor für Kybernetik an der Universität Osnabrück. Die bestehenden intelligenten Systeme seien weitgehend auf ein "kooperatives Umfeld" angewiesen. Gegner, die sich tarnen, verstecken oder sich ihrerseits mit High-Tech-Waffen wehren würden, seien den bestehenden Systemen oft noch überlegen. Auch Anja Dahlmann von der Berliner Stiftung Wissenschaft und Politik (SWP) verweist auf die Fehleranfälligkeit zumindest der gegenwärtigen autonomen Waffensysteme: "Man kann auch im zivilen Bereich beobachten, dass Systeme mit künstlicher Intelligenz relativ leicht manipuliert und ausgeschaltet werden können. Manchmal reicht dazu schon ein simples Post-it, das irgendwo hingeklebt wurde", sagte die Politologin der "Wiener Zeitung". Das könnten freilich Anfängerprobleme sein, die angesichts der Vehemenz, mit der geforscht wird, bald verschwinden könnten.

Maschinenmenschenals Supersoldaten

Parallel zur Entwicklung der Roboter forschen amerikanische Wissenschafter an einer Verbindung zwischen Mensch und Maschine, die einen "Super-Soldaten" schaffen soll. Der deutsche Politologe Christian Weidlich hat sich mit der Thematik auseinadergesetzt: Das Pentagon investiere 400 Millionen Dollar pro Jahr, weiß er. Die Hoffnung sei es, "die nächste Generation übermenschlicher Krieger zu entwickeln". In das Gehirn eingepflanzte Sonden sollen Angstzustände unterdrücken, Implantate Hormone freisetzen, die Emotionen gezielt unterdrücken. Auch an künstlichen Skeletten, die dem Anwender enorme Kräfte verleihen sollen, werde gearbeitet. Diese Entwicklungen gebe es, auch wenn sie "eher übermorgen als morgen" Realität würden.

All das sorgt international für Aufsehen und große Sorge. Im Jahr 2015 haben rund 30.000 Wissenschaftler, darunter auch 3000 Forscher im Bereich künstliche Intelligenz, einen Aufruf zur Ächtung vollautomatischer Angriffswaffen unterzeichnet. Viele fürchten, dass die Hemmschwelle für neue Kriege sinkt, wenn man keine eigenen Verluste mehr riskieren muss: "Die Aussicht auf eigene Verluste an Menschenleben ist eine der größten Hürden in westlichen Gesellschaften, wenn es um die Beteiligung an Kriegen geht", sagt Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung (HSFK).

Für ihn ist die entscheidende Frage, ob technische Systeme, ob letztlich Computeralgorythmen sich selbst aussuchen dürfen, gegen wen sie tödliche Gewalt ausüben, ohne dass ein Mensch noch Kontrolle darüber hat. "Prinzipiell sind Systeme vorstellbar, die auf der Basis von Gesichtserkennung oder einem Freund-Feind-Sender auf dem Schlachtfeld Menschen töten, die nicht in ihr Raster fallen", erklärt der Friedensforscher und Kenner der Materie der "Wiener Zeitung".

Daraus ergäben sich freilich schwer wiegende ethische und rechtliche Probleme: "Wenn ein Roboter Kriegsverbrechen begeht, wer trägt dann eigentlich die Schuld daran? Ist der Täter der Programmierer? Ist es der Offizier, der die Maschine losgeschickt hat? Den Roboter selbst wird man ja wahrscheinlich nicht verantwortlich machen und ins Gefängnis stecken können", erörtert Schörnig mögliche Problemlager einer gar nicht so fernen Zukunft.

Aber kann man die Entwicklung zum Roboter am Schlachtfeld überhaupt aufhalten? Schwierig wird es in jedem Fall. Zwar gibt es seit 2014 auf UN-Ebene informelle Treffen, und ab November wird es eine offizielle Expertengruppe geben. Ein großer Wurf ist dabei vorerst jedoch nicht zu erwarten: "Ich glaube zwar, dass es am Ende ein Protokoll geben wird. Wahrscheinlich wird es aber ein ziemlich weichgespültes sein", verweist Anja Dahlmann auf den Umstand, dass die großen Rüstungsmächte wenig Interesse daran haben, die Forschung auf diesem Gebiet einzuschränken.

Weniger Vertrauenals im Kalten Krieg

Das Problem hat auch einen simplen Grund: Mangelndes Vertrauen. "Zur Zeit des Kalten Krieges konnte man sich noch gegenseitig einladen und die Panzer und Raketensilos überprüfen. Da war eine gewisse Verlässlichkeit da", sagt Schörnig. "Heute ist das komplizierter. Sie werden einer Drohne in zehn Jahren nicht ansehen, ob sie gesteuert wird oder autonom agiert. Sie können nicht in die Software hineinsehen - man sieht sie nicht", erklärt der Friedensforscher. Man müsse sich kreative Lösungen überlegen, wie auch unter diesen erschwerten Bedingungen das nötige Vertrauen für einen Bann der problematischen Technologie aufgebaut werden kann. Das wird freilich schwer: "Denn auch wenn sich 99 Prozent an ein Abkommen halten - sollte es einen Ausreißer geben, so hat der einen möglicherweise entscheidenden Vorteil auf dem Schlachtfeld", meint Schörnig.