Drohnenangriff in Kabul: Es ist Ende August, der überhastete Abzug der Amerikaner aus Afghanistan ist voll im Gange, allerorts liegen die Nerven blank. Erst vor kurzem hat der "Islamische Staat" einen Terroranschlag auf den Flughafen verübt, es war ein Blutbad. Zivilisten, Taliban-Kämpfer und zahlreiche US-Soldaten sind tot. Im Pentagon ist man enorm unter Druck, ein weiteres, vielleicht noch desaströseres Attentat muss unbedingt verhindert werden.

Dann kommt es zur Katastrophe: Eine US-Drohne schießt ein Fahrzeug ab, die Amerikaner nehmen an, dass es mit Sprengstoff gefüllt, dass es auf dem Weg zum Flughafen ist und dass ein weiterer Anschlag unmittelbar bevorsteht. Relativ schnell ist aber klar, dass sich eine Tragödie ereignet hat: In dem Auto waren Zivilisten, sieben Kinder und drei Erwachsene, alle sind tot. Die Aufklärungsvideos der US-Streitkräfte zeigten zuvor einen Mann, der Kanister in ein Auto verlädt. Die Schlussfolgerung der US-Militärs war, dass hier ein weiterer Anschlag in Vorbereitung sein muss. Doch in Wirklichkeit handelte es sich um einen Unbeteiligten, der Wasser holen wollte.

"Sauberer Krieg unmöglich"

Oberst Markus Reisner, Experte für Drohnen beim Bundesheer. - © Bundesheer
Oberst Markus Reisner, Experte für Drohnen beim Bundesheer. - © Bundesheer

Zu glauben, "dass man Krieg sauber und präzise führen kann", habe sich hier wieder einmal als "Denkfehler" herausgestellt, sagt Markus Reisner, Drohnen-Experte und Oberst im Generalstab des Bundesheeres, im Gespräch mit der "Wiener Zeitung". "Aus diesem Dilemma kommen wir nicht heraus." Schon gar nicht dann, wenn Drohnenpiloten irgendwo in der Wüste von Nevada, in fensterlosen Bunkern, tausende Kilometer vom Kriegsschauplatz entfernt auf einen Computerbildschirm starren und versuchen, aus fallweise stark verpixelten Bildern schlau zu werden und per Joystick Raketen in ein Ziel zu lenken, das sie nicht einwandfrei erkennen können.

Immerhin kann der Drohnenpilot, sobald sich der Rauch verzogen hat, noch einmal nachsehen, was er da getroffen hat. Nicht selten muss er dann erkennen, dass er Zivilisten, oft Kinder, vernichtet hat. Trotz der guten Bezahlung quittieren die meisten Drohnenpiloten den Dienst, viele begeben sich in Behandlung. Auch deshalb wird weltweit an Systemen geforscht, die "autonom" agieren und die so programmiert sind, dass sie ihr Ziel selbst auswählen und angreifen können. Ein Mensch ist dann nicht mehr notwendig.

Im Raum steht die Frage, ob Drohnen-Einsätze legitim sind: "Entspricht das den Normen des Völkerrechts? Darf der Drohnenpilot in dem Luftraum des anderen Staates das einfach so durchführen?", fragt Reisner. Hier würden die Grenzen zunehmend verschwimmen, "weil das Völkerrecht seit einigen Jahren leider gar niemanden mehr interessiert, sondern jeder macht, was er will. Der eine schickt Raketen, der andere Marschflugkörper, der Dritte Drohnen, der Vierte macht Cyberangriffe, der Fünfte schickt Söldner. Und das Völkerrecht wird eigentlich zur Seite geschoben."

Warum? "Weil wir in einem neuen Kräftemessen der Großmächte sind. Und wenn der UN-Sicherheitsrat aufgrund der dortigen Pattsituation sich zu nichts durchringen kann, macht jeder im Prinzip das, was er möchte", so Reisner. Doch wie erkennt eine Drohne selbständig ihr Ziel? "Manche denken, da hätten wir jetzt eine vernünftige Maschine", so der Drohnen-Experte. "Davon sind wir noch sehr, sehr weit entfernt. Wenn wir von Künstlicher Intelligenz (KI) reden, ist das im Wesentlichen so, dass wir Programme haben, die viele Daten in sehr kurzer Zeit analysieren können. Wir haben zum Beispiel tausende Äpfel, unter denen sich eine Birne befindet. Und das System analysiert in sehr kurzer Zeit dieses Bild und erkennt: Dort ist diese Birne. Der Mensch braucht Zeit, bis er sich alles angesehen hat." Aber kann eine autonome Drohne tatsächlich am Gesicht eines Menschen erkennen, ob es der ist, der zu töten ist? "Es gibt zwar Gesichtserkennung", weiß Reisner, "und man kann diese Gesichtserkennung auch theoretisch mit einem Waffensystem verknüpfen. Aber wenn Sie jetzt Ihre Brille abnehmen, hat das System ein Problem."

Maschine schlägt Mensch

Klar ist jedenfalls, dass solche Systeme nicht in der Lage sind, rationale Entscheidungen zu fällen. "Da geht es darum, dass aufgrund einer Software und aufgrund der Möglichkeit der Datenanalyse sehr rasch eine Entscheidung vorgeschlagen werden kann", so Reisner. Im Idealfall kann das System dann einen Panzer von einem zivilen Auto unterscheiden und sich - als Kamikaze-Drohne - auf den Kampfwagen stürzen.

Prinzipiell seien drei Ebenen bei Waffensystemen zu unterscheiden, so Reisner. Bei "human-in-the-loop" muss der Soldat permanent einen Steuerknüppel bedienen. Bei "human-on-the-loop" bewegt sich der Steuerknüppel von selbst, der Soldat muss aber permanent kontrollieren, ob er das Richtige macht. Bei "human-out-of-the-loop" hat die Drohne alle Möglichkeiten. "Der Steuerknüppel bewegt sich selbst und ich gehe quasi auf die Toilette und wenn ich zurückkomme, ist der dort, wo er hin soll", sagt Reisner. Und: "Da geht die Entwicklung gerade hin."

Wobei diese Kampfmaschinen nicht in unserem Sinn "intelligent" sind, wie der Oberst betont, sondern eigentlich "ziemlich dumm": Sie tun das, was man ihnen einprogrammiert. Gleichzeitig ist für Reisner klar, dass die Maschine den Menschen in einer Kampfsituation "immer ausmanövriert". Das Problem sei, dass sich zwischen den Mächten USA, China, Russland, Südkorea ein Rüstungswettlauf etabliert habe: "Wenn der erste so ein System hat, ein vollautonomes Kampfflugzeug, dann hat er natürlich eine klassische Überlegenheit gegenüber dem anderen. Und der andere ist automatisch gezwungen, hier nachzurüsten. Das erleben wir bei Hyperschallwaffen, bei Atomtorpedos, bei Drohnen, die einander bekämpfen, und so fort." Reisner sieht die Gefahr, dass der Menschheit die Sache entgleitet, wenn autonome Waffensysteme nicht einem gewissen Regelement unterworfen werden.

Drohne zückt Schwert

Deshalb haben Menschenrechtsorganisationen und das Netzwerk "Stop Killer Robots" eine Petition gegen autonome Waffensysteme gestartet. Es geht um ein Verbot von Waffen, die nicht von Menschenhand gesteuert werden. Vom 2. Dezember an werden in Genf Regierungen darüber beraten, ob Verhandlungen über ein solches Verbot aufgenommen werden. Dass diese Bemühungen erfolgreich sein könnten, hält Reisner für "völlig unrealistisch". Zu viele Staaten würden einen Vorteil in "intelligenten" Waffen sehen, jeder glaube, dass es sich um ein Wettrennen handle, in dem er der Sieger sein könne. Bevor nicht etwas "wirklich Einschneidendes" geschehe, werde der Mensch nicht zur Vernunft kommen, glaubt Reisner.

Im Bemühen, zivile Opfer zu vermeiden und das Ziel möglichst exakt zu treffen, wurden bereits Drohnen entwickelt, die einem schlechten Science-Ficition-Film entstammen könnten. So hat US-Ex-Präsident Barack Obama eine Rakete namens "Ninja" entwickeln lassen, die wenig Sprengstoff mit sich führt, dafür aber vier sogenannte "blades", Samurai-Schwerten nicht unähnlich. "Die klappen aus, bevor die Rakete einschlägt, und zerstückeln gleichsam ihr Ziel", so Reisner. Damit will man nur eine Person töten und zivile Kollateralschäden vermeiden. "Aber das Problem ist natürlich, dass es immer wieder zu Situationen kommt, wo das schiefgeht", lautet auch hier das wenig ermutigende Fazit des Bundesheer-Obersten.