Menschenrechtsorganisationen und das Netzwerk "Stop Killer Robots" haben eine Petition gegen autonome Waffensysteme gestartet. Es geht dabei um ein Verbot aller Waffen, die nicht mehr entscheidend von Menschenhand gesteuert werden. Ab dem 2.Dezember beraten Regierungen in Genf darüber, ob Verhandlungen über ein solches Verbot aufgenommen werden. Mächte wie die USA, China, Russland und Israel sind seit Jahren gegen Beschränkungen. Die "Wiener Zeitung" hat mit Oberst Markus Reisner vom österreichischen Bundesheer über die Problematik gesprochen. +++

Dr. Markus Reisner, geboren 1978, ist Oberst im österreichischen Generalstab. Er absolvierte ein Doktorstudium der Geschichte sowie ein PhD-Studium an der rechtswissenschaftlichen Fakultät der Universität Wien und gilt als Experte für den Einsatz und die Zukunft von unbemannten Waffensystemen. Reisner hat mehrere Auslandsaufenthalte in Bosnien und Herzegowina, im Kosovo, in Afghanistan, dem Irak, dem Tschad, in Zentralafrika und Mali hinter sich und ist auch Verfasser mehrerer Bücher über historische und aktuelle militärische Themen. 
- © Österreichisches Bundesheer / Kurt Kreibich

Dr. Markus Reisner, geboren 1978, ist Oberst im österreichischen Generalstab. Er absolvierte ein Doktorstudium der Geschichte sowie ein PhD-Studium an der rechtswissenschaftlichen Fakultät der Universität Wien und gilt als Experte für den Einsatz und die Zukunft von unbemannten Waffensystemen. Reisner hat mehrere Auslandsaufenthalte in Bosnien und Herzegowina, im Kosovo, in Afghanistan, dem Irak, dem Tschad, in Zentralafrika und Mali hinter sich und ist auch Verfasser mehrerer Bücher über historische und aktuelle militärische Themen.

- © Österreichisches Bundesheer / Kurt Kreibich

Wiener Zeitung: Was ist überhaupt eine Kampfdrohne? Ist das so etwas wie ein unbemanntes Flugzeug, oder haben Drohnen noch andere spezifische Qualitäten?

Markus Reisner: Bei einer Drohne ist es wie bei einem Roboter: Jeder denkt an etwas anderes, hat ein anderes Bild vor Augen. Grundsätzlich ist eine Drohne, ganz allgemein gesprochen, ein unbemanntes Luftfahrzeug, das stimmt. Man darf aber nicht vergessen, dass es zu Wasser oder Lande noch eine ganze Menge anderer Systeme gibt, die mit einem hohen Grad an Autonomie unterwegs sein können – vor allem auch Programme im Cyberraum.

Solche autonomen Systeme sind ja recht umstritten…

Als die USA nach dem 11. September das erste Mal bewaffnete Drohnen eingesetzt haben, gab es noch keine breite Diskussion darüber. Die wurde erst gestartet, als erstmals ein US-Staatsbürger von einer derartigen Drohne getötet worden ist. Plötzlich gab es eine große Aufregung: Ist das überhaupt legal, was wir hier machen? Dürfen wir das? Die Entwicklung und den Einsatz von Drohnen haben solche Diskussionen aber nicht gestoppt. In den USA war es Präsident Barack Obama, der die Drohnenkriegsführung auf die Spitze getrieben hat. Er hat konkret die Entwicklung von Waffensystemen angeleitet. Das, was an diesen bewaffneten Drohnen für Staaten so verlockend ist, ist, dass man sie - so scheint es zumindest - sehr präzise einsetzen kann. Es ist oft nicht offensichtlich, wer die Drohne eingesetzt hat – anders als beim Abwurf von Bomben durch ein Flugzeug. Man kann verdeckt Krieg führen.

Und wenn es zum Abschuss einer Drohne kommt?

Dann war zumindest kein Besatzungsmitglied an Bord, das der Gegner triumphierend präsentieren kann. Oder möglicherweise sogar foltern. Das macht den Erfolg von Drohnen aus. Aus militärischer Sicht vereinen sie verschiedene Aspekte. Das heißt, sie können ein Ziel aufklären, haben die Waffen mit, um es zu bekämpfen und können auch gleich nachsehen, ob das Ziel getroffen wurde. All das vereint die Drohne in einem System.

Und wie erkennt die Drohne, ob sie das richtige Ziel getroffen hat? Da gab es ja schon genug fatale Irrtümer.

Das ist die große Frage. Im Regelfall macht das nicht die Drohne selbst, sondern der Drohnenpilot. Der sitzt tausende Kilometer entfernt hinter einem Bildschirm, hat einen Joystick in der Hand und beobachtet optimalerweise sein Ziel längere Zeit. Dann bekämpft er es und sieht durch die Explosion, ob das Ziel zerstört wurde oder nicht. Die wirklich interessante Frage ist jedoch: Ist das, was der Pilot tat, auch legitim gewesen? Entsprach es den Normen des Völkerrechts? Durfte der Drohnenpilot in dem Luftraum des anderen Staates das, was er tat, einfach so durchführen? Oder durfte der Staat, dem der Drohnenpilot angehört, das einfach so machen? Und da verschwimmt jetzt natürlich zunehmend eine Grenze, weil das Völkerrecht seit einigen Jahren leider kaum mehr beachtet wird. Jeder Staat macht, was er will. Der eine feuert Raketen ab, der andere Marschflugkörper, der Dritte lässt Drohnen starten, der Vierte macht Cyberangriffe, der Fünfte schickt Söldner. Das Völkerrecht wird dabei zur Seite geschoben. Warum? Weil wir in einem neuen Kräftemessen der Großmächte sind.

In den USA war es Ex-Präsident Barack Obama, der die Drohnenentwicklung vorantrieb. 
- © APAweb / afp, Ben Stansall

In den USA war es Ex-Präsident Barack Obama, der die Drohnenentwicklung vorantrieb.

- © APAweb / afp, Ben Stansall

Gibt es nicht auch schon Drohnen, die ihre Ziele selbst erkennen können?

Die gibt es, ja. In den jüngsten Konflikten – etwa beim Krieg um Bergkarabach vor mehr als einem Jahr – gab es schon Drohnen, die keinen Operator, also Drohnenpiloten, der das Ziel ausgewählt hat, mehr brauchten. Hier wurden Drohnen eingesetzt, die ihr Ziel selbst erkennen konnten – Kamikaze-Drohnen, die sich dann in ihr Ziel stürzten.

Und wie funktioniert das technisch? Dass eine Drohne ihr Ziel selbst erkennt?

Etwa so, dass die Drohne in einen gewissen Raum fliegt und dort kreist. Wenn dann ein Ziel auftaucht, erkennt sie es und stürzt sich in dieses Ziel.

Mittels künstlicher Intelligenz?

Ja – hier gilt es aber ein mögliches Missverständnis auszuräumen. Bei künstlicher Intelligenz denken viele an eine Art vernünftige Maschine. Davon sind wir allerdings noch sehr weit entfernt. Künstliche Intelligenz bezeichnet heute den Umstand, dass wir über Programme verfügen, die viele Daten in extrem kurzer Zeit analysieren können. Das heißt, wir haben zum Beispiel tausende Äpfel, unter denen sich eine Birne befindet. Und das System analysiert in sehr kurzer Zeit dieses Bild und erkennt: Dort ist diese Birne. Was der Mensch nicht kann, denn der Mensch braucht Zeit, bis er sich alles angesehen hat und die Birne erkennt.

Menschen sehen aber – wenn man bei diesem Beispiel bleibt – alle aus wie Menschen.

Hier geht es eher um den Unterschied zwischen einem Panzer und einem zivilen Fahrzeug zum Beispiel. Diesen Unterschied sollte die Drohne mittels künstlicher Intelligenz erkennen können. Beim Menschen wird es natürlich heikel. Nehmen wir einmal an, ein System wäre theoretisch in der Lage, zwischen uns beiden zu unterscheiden – noch sind wir ja technisch nicht soweit, aber vorstellbar wäre es. Schließlich gibt es Gesichtserkennung, und man könnte diese Gesichtserkennung auch theoretisch mit einem Waffensystem verknüpfen. Wenn Sie jetzt aber Ihre Brille abnehmen oder sich ein Tuch umbinden, hat das System ein Problem: Es kann sie nicht mehr erkennen. Staaten wie China, die Gesichtserkennung jetzt in großem Stil einführen wollen, um ihre Bürger zu kontrollieren, stehen vor diesem Problem. Hier geht es um riesige Datenmengen. Die Drohne müsste in wenigen Sekunden tausende von menschlichen Daten durcharbeiten können, sie dann miteinander vergleichen und erkennen: das ist jetzt die gesuchte Person - oder eben nicht. Grundsätzlich ist es wichtig zu betonen, dass Künstliche Intelligenz nicht bedeutet, dass ein System rational entscheidet. Das kann es nicht. Es kann nur aufgrund von Software und Möglichkeiten der Datenanalyse sehr rasch eine Entscheidung vorschlagen – im Sinne einer "dummen", dem Maschinellen verhafteten Entscheidung. Die Drohne, die über dem Ziel kreist, sieht zehn bewegte Objekte, neun davon sind zivile Fahrzeuge und das zehnte ist ein Kampfpanzer. Den kann sie erkennen und bekämpfen.

Komplett ohne menschliche Kontrolle?

Genau. Drohnen unterscheidet man in drei unterschiedliche Gruppen. Bei "human-in-the-loop" gibt es einen Operator, der am Steuerknüppel sitzt und die Drohne steuert. Bei "human-on-the-loop" bewegt sich der Steuerknüppel selbst, und der sogenannte Operator kontrolliert nur noch, ob alles richtig gemacht wird. Und bei "human-out-of-the loop" bewegt sich der Knüppel selbst und der Operator kann theoretisch auch aufs Klo gehen, während die Drohne das Ziel angreift. Das ist auch die Richtung, in die die Entwicklung bei Drohnen generell geht – nicht unbedingt, was den Waffeneinsatz betrifft, da geht es eher darum, eine Drohne autonom von einem Start- in einen Zielraum fliegen zu lassen. Der Mensch übernimmt die Drohne nur mehr, wenn sie in den Zielraum kommt, steuert diese dann und gibt sie wieder frei – und die Drohne fliegt selbstständig nach Hause, während der Operator die nächste einfliegende Drohne steuert und so weiter. Autonome Systeme gibt es aber, wie gesagt, auch am Land, im Wasser oder besonders im Cyberraum, wo ja alles in Lichtgeschwindigkeit vor sich geht. Dort können Sie als Mensch gar nicht mehr agieren, denn: während sie noch überlegen, werde ich jetzt angegriffen oder nicht, ist der Angriff schon vorbei. Heutzutage geht es immer um Zeit. Und wenn die Zeit sich immer mehr beschleunigt, hat der Mensch das Problem, dass er hier nicht mehr mithalten kann.

Auch Staaten wie der Iran investieren in die Entwicklung von Kampfdrohnen - und bringen sie auch im Ausland verdeckt zum Einsatz. 
- © APAweb / afp, Iranian Army Office

Auch Staaten wie der Iran investieren in die Entwicklung von Kampfdrohnen - und bringen sie auch im Ausland verdeckt zum Einsatz.

- © APAweb / afp, Iranian Army Office

Das klingt alles, offen gestanden, ziemlich beängstigend. Wäre ein Szenario wie in den Terminator-Filmen, wo sich künstliche Intelligenz von menschlicher Kontrolle unabhängig macht, theoretisch möglich?

Prinzipiell ist die künstliche Intelligenz von menschlicher Intelligenz doch weit entfernt. Sie können beispielsweise einem Roboter eine Waffe draufschrauben und diesen Roboter so programmieren, dass er in einem definierten Raum, nehmen wir beispielsweise ein Zimmer, jede Wärmequelle, die er erkennt, beschießt. In dem Moment, wo ein Hase beim Fenster hineinhüpft, erkennt er diese Wärmequelle und beschießt sie. Er ist jetzt aber nicht intelligent so wie wir, sondern er macht einfach das, was ihm einprogrammiert wurde. Es ist für uns beängstigend, wenn wir das betrachten. Wir denken uns: Wahnsinn, der Roboter trifft die Entscheidung. So ist es aber nicht. Selbst in den Terminator-Filmen gibt es mit Skynet über der Maschine ja noch ein System, das sie lenkt.

Das sich in dieser Fiktion dann aber selbstständig gemacht hat.

Ja, in der Fiktion. Wir berühren hier wichtige ethische Fragen. Unser Zugang im Westen ist der, dass für uns das Leben so delikat ist, dass wir als Menschen ablehnen, eine Entscheidung über Leben und Tod zu treffen. Sollte das aber nötig sein, dann sollte diese Entscheidung, denken wir, immer noch eher der Mensch treffen als die Maschine. Diese Fragen betreffen nicht nur Waffensysteme, vor denen wir alle Angst haben. Auch das autonome Fahren wirft hier Fragen auf. Nehmen wir einmal an, ein autonom fahrendes Auto trifft auf uns beide und es muss jetzt eine Entscheidung treffen – es muss entweder links fahren oder rechts, also im schlimmsten Fall einen von uns beiden töten. Das muss dann die Maschine selbstständig entscheiden.