Der Bundesheer-Oberst Markus Reisner über die aktuelle Revolution der Kriegsführung und die Gefährlichkeit autonomer Waffensysteme.
Hinweis: Der Inhalt dieser Seite wurde vor 2 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Menschenrechtsorganisationen und das Netzwerk "Stop Killer Robots" haben eine Petition gegen autonome Waffensysteme gestartet. Es geht dabei um ein Verbot aller Waffen, die nicht mehr entscheidend von Menschenhand gesteuert werden. Ab dem 2.Dezember beraten Regierungen in Genf darüber, ob Verhandlungen über ein solches Verbot aufgenommen werden. Mächte wie die USA, China, Russland und Israel sind seit Jahren gegen Beschränkungen. Die "Wiener Zeitung" hat mit Oberst Markus Reisner vom österreichischen Bundesheer über die Problematik gesprochen. +++
Wiener Zeitung: Was ist überhaupt eine Kampfdrohne? Ist das so etwas wie ein unbemanntes Flugzeug, oder haben Drohnen noch andere spezifische Qualitäten?
Markus Reisner: Bei einer Drohne ist es wie bei einem Roboter: Jeder denkt an etwas anderes, hat ein anderes Bild vor Augen. Grundsätzlich ist eine Drohne, ganz allgemein gesprochen, ein unbemanntes Luftfahrzeug, das stimmt. Man darf aber nicht vergessen, dass es zu Wasser oder Lande noch eine ganze Menge anderer Systeme gibt, die mit einem hohen Grad an Autonomie unterwegs sein können – vor allem auch Programme im Cyberraum.
Solche autonomen Systeme sind ja recht umstritten…
Als die USA nach dem 11. September das erste Mal bewaffnete Drohnen eingesetzt haben, gab es noch keine breite Diskussion darüber. Die wurde erst gestartet, als erstmals ein US-Staatsbürger von einer derartigen Drohne getötet worden ist. Plötzlich gab es eine große Aufregung: Ist das überhaupt legal, was wir hier machen? Dürfen wir das? Die Entwicklung und den Einsatz von Drohnen haben solche Diskussionen aber nicht gestoppt. In den USA war es Präsident Barack Obama, der die Drohnenkriegsführung auf die Spitze getrieben hat. Er hat konkret die Entwicklung von Waffensystemen angeleitet. Das, was an diesen bewaffneten Drohnen für Staaten so verlockend ist, ist, dass man sie - so scheint es zumindest - sehr präzise einsetzen kann. Es ist oft nicht offensichtlich, wer die Drohne eingesetzt hat – anders als beim Abwurf von Bomben durch ein Flugzeug. Man kann verdeckt Krieg führen.
Und wenn es zum Abschuss einer Drohne kommt?
Dann war zumindest kein Besatzungsmitglied an Bord, das der Gegner triumphierend präsentieren kann. Oder möglicherweise sogar foltern. Das macht den Erfolg von Drohnen aus. Aus militärischer Sicht vereinen sie verschiedene Aspekte. Das heißt, sie können ein Ziel aufklären, haben die Waffen mit, um es zu bekämpfen und können auch gleich nachsehen, ob das Ziel getroffen wurde. All das vereint die Drohne in einem System.
Und wie erkennt die Drohne, ob sie das richtige Ziel getroffen hat? Da gab es ja schon genug fatale Irrtümer.
Das ist die große Frage. Im Regelfall macht das nicht die Drohne selbst, sondern der Drohnenpilot. Der sitzt tausende Kilometer entfernt hinter einem Bildschirm, hat einen Joystick in der Hand und beobachtet optimalerweise sein Ziel längere Zeit. Dann bekämpft er es und sieht durch die Explosion, ob das Ziel zerstört wurde oder nicht. Die wirklich interessante Frage ist jedoch: Ist das, was der Pilot tat, auch legitim gewesen? Entsprach es den Normen des Völkerrechts? Durfte der Drohnenpilot in dem Luftraum des anderen Staates das, was er tat, einfach so durchführen? Oder durfte der Staat, dem der Drohnenpilot angehört, das einfach so machen? Und da verschwimmt jetzt natürlich zunehmend eine Grenze, weil das Völkerrecht seit einigen Jahren leider kaum mehr beachtet wird. Jeder Staat macht, was er will. Der eine feuert Raketen ab, der andere Marschflugkörper, der Dritte lässt Drohnen starten, der Vierte macht Cyberangriffe, der Fünfte schickt Söldner. Das Völkerrecht wird dabei zur Seite geschoben. Warum? Weil wir in einem neuen Kräftemessen der Großmächte sind.
Gibt es nicht auch schon Drohnen, die ihre Ziele selbst erkennen können?
Die gibt es, ja. In den jüngsten Konflikten – etwa beim Krieg um Bergkarabach vor mehr als einem Jahr – gab es schon Drohnen, die keinen Operator, also Drohnenpiloten, der das Ziel ausgewählt hat, mehr brauchten. Hier wurden Drohnen eingesetzt, die ihr Ziel selbst erkennen konnten – Kamikaze-Drohnen, die sich dann in ihr Ziel stürzten.
Und wie funktioniert das technisch? Dass eine Drohne ihr Ziel selbst erkennt?
Etwa so, dass die Drohne in einen gewissen Raum fliegt und dort kreist. Wenn dann ein Ziel auftaucht, erkennt sie es und stürzt sich in dieses Ziel.
Mittels künstlicher Intelligenz?
Ja – hier gilt es aber ein mögliches Missverständnis auszuräumen. Bei künstlicher Intelligenz denken viele an eine Art vernünftige Maschine. Davon sind wir allerdings noch sehr weit entfernt. Künstliche Intelligenz bezeichnet heute den Umstand, dass wir über Programme verfügen, die viele Daten in extrem kurzer Zeit analysieren können. Das heißt, wir haben zum Beispiel tausende Äpfel, unter denen sich eine Birne befindet. Und das System analysiert in sehr kurzer Zeit dieses Bild und erkennt: Dort ist diese Birne. Was der Mensch nicht kann, denn der Mensch braucht Zeit, bis er sich alles angesehen hat und die Birne erkennt.
Menschen sehen aber – wenn man bei diesem Beispiel bleibt – alle aus wie Menschen.
Hier geht es eher um den Unterschied zwischen einem Panzer und einem zivilen Fahrzeug zum Beispiel. Diesen Unterschied sollte die Drohne mittels künstlicher Intelligenz erkennen können. Beim Menschen wird es natürlich heikel. Nehmen wir einmal an, ein System wäre theoretisch in der Lage, zwischen uns beiden zu unterscheiden – noch sind wir ja technisch nicht soweit, aber vorstellbar wäre es. Schließlich gibt es Gesichtserkennung, und man könnte diese Gesichtserkennung auch theoretisch mit einem Waffensystem verknüpfen. Wenn Sie jetzt aber Ihre Brille abnehmen oder sich ein Tuch umbinden, hat das System ein Problem: Es kann sie nicht mehr erkennen. Staaten wie China, die Gesichtserkennung jetzt in großem Stil einführen wollen, um ihre Bürger zu kontrollieren, stehen vor diesem Problem. Hier geht es um riesige Datenmengen. Die Drohne müsste in wenigen Sekunden tausende von menschlichen Daten durcharbeiten können, sie dann miteinander vergleichen und erkennen: das ist jetzt die gesuchte Person - oder eben nicht. Grundsätzlich ist es wichtig zu betonen, dass Künstliche Intelligenz nicht bedeutet, dass ein System rational entscheidet. Das kann es nicht. Es kann nur aufgrund von Software und Möglichkeiten der Datenanalyse sehr rasch eine Entscheidung vorschlagen – im Sinne einer "dummen", dem Maschinellen verhafteten Entscheidung. Die Drohne, die über dem Ziel kreist, sieht zehn bewegte Objekte, neun davon sind zivile Fahrzeuge und das zehnte ist ein Kampfpanzer. Den kann sie erkennen und bekämpfen.
Komplett ohne menschliche Kontrolle?
Genau. Drohnen unterscheidet man in drei unterschiedliche Gruppen. Bei "human-in-the-loop" gibt es einen Operator, der am Steuerknüppel sitzt und die Drohne steuert. Bei "human-on-the-loop" bewegt sich der Steuerknüppel selbst, und der sogenannte Operator kontrolliert nur noch, ob alles richtig gemacht wird. Und bei "human-out-of-the loop" bewegt sich der Knüppel selbst und der Operator kann theoretisch auch aufs Klo gehen, während die Drohne das Ziel angreift. Das ist auch die Richtung, in die die Entwicklung bei Drohnen generell geht – nicht unbedingt, was den Waffeneinsatz betrifft, da geht es eher darum, eine Drohne autonom von einem Start- in einen Zielraum fliegen zu lassen. Der Mensch übernimmt die Drohne nur mehr, wenn sie in den Zielraum kommt, steuert diese dann und gibt sie wieder frei – und die Drohne fliegt selbstständig nach Hause, während der Operator die nächste einfliegende Drohne steuert und so weiter. Autonome Systeme gibt es aber, wie gesagt, auch am Land, im Wasser oder besonders im Cyberraum, wo ja alles in Lichtgeschwindigkeit vor sich geht. Dort können Sie als Mensch gar nicht mehr agieren, denn: während sie noch überlegen, werde ich jetzt angegriffen oder nicht, ist der Angriff schon vorbei. Heutzutage geht es immer um Zeit. Und wenn die Zeit sich immer mehr beschleunigt, hat der Mensch das Problem, dass er hier nicht mehr mithalten kann.
Das klingt alles, offen gestanden, ziemlich beängstigend. Wäre ein Szenario wie in den Terminator-Filmen, wo sich künstliche Intelligenz von menschlicher Kontrolle unabhängig macht, theoretisch möglich?
Prinzipiell ist die künstliche Intelligenz von menschlicher Intelligenz doch weit entfernt. Sie können beispielsweise einem Roboter eine Waffe draufschrauben und diesen Roboter so programmieren, dass er in einem definierten Raum, nehmen wir beispielsweise ein Zimmer, jede Wärmequelle, die er erkennt, beschießt. In dem Moment, wo ein Hase beim Fenster hineinhüpft, erkennt er diese Wärmequelle und beschießt sie. Er ist jetzt aber nicht intelligent so wie wir, sondern er macht einfach das, was ihm einprogrammiert wurde. Es ist für uns beängstigend, wenn wir das betrachten. Wir denken uns: Wahnsinn, der Roboter trifft die Entscheidung. So ist es aber nicht. Selbst in den Terminator-Filmen gibt es mit Skynet über der Maschine ja noch ein System, das sie lenkt.
Das sich in dieser Fiktion dann aber selbstständig gemacht hat.
Ja, in der Fiktion. Wir berühren hier wichtige ethische Fragen. Unser Zugang im Westen ist der, dass für uns das Leben so delikat ist, dass wir als Menschen ablehnen, eine Entscheidung über Leben und Tod zu treffen. Sollte das aber nötig sein, dann sollte diese Entscheidung, denken wir, immer noch eher der Mensch treffen als die Maschine. Diese Fragen betreffen nicht nur Waffensysteme, vor denen wir alle Angst haben. Auch das autonome Fahren wirft hier Fragen auf. Nehmen wir einmal an, ein autonom fahrendes Auto trifft auf uns beide und es muss jetzt eine Entscheidung treffen – es muss entweder links fahren oder rechts, also im schlimmsten Fall einen von uns beiden töten. Das muss dann die Maschine selbstständig entscheiden.
Verantwortlich für den Unfall ist dann wohl die Autofirma.
Möglicherweise. Noch haben wir keine Antwort darauf. Diese Fragen werden auch in unterschiedlichen Kulturen jeweils völlig anders bewertet. Um ein Beispiel zu geben: Es könnte ja passieren, dass ein autonom fahrendes Auto in die Lage kommt, entweder eine Kindergruppe oder eine alte Frau überfahren zu müssen. Wo soll es hinfahren? Wir im Westen würden wohl eher sagen, auf die alte Frau zu. Die hat ihr Leben bereits gelebt, die Kinder haben es noch vor sich. Die Vorstellung, im Zweifelsfall Kinder zu töten, widerstrebt uns. In China würde man das aber komplett anders bewerten. Dort hat das Alter einen viel höheren Stellenwert als die Jugend. Die Chinesen würden sagen, die alte Frau muss in jedem Fall überleben. Wir stehen vor dem Problem: Geben wir diese Entscheidung ab? Überlassen wir es dem Auto, zu entscheiden, wen es tötet? Das sind sehr heikle Fragen.
Ist es bei Waffensystemen ähnlich?
Ja. Denn natürlich gibt es Bereiche, bei denen die Maschine dem Menschen überlegen ist. 2020 hat man einen menschlichen Piloten in einem virtuellen Luftkampf gegen einen Roboter antreten lassen. Das Hirn des Roboters war sehr primitiv. Das war ein Computer, dem man um 70 Euro bei Amazon erstehen kann. Es gab 7 Luftkämpfe. Was glauben Sie, wer gewonnen hat?
Der Roboter.
Richtig. Dieser primitive, einfache Computer. Und zwar vor allem deswegen, weil der Computer sehr aggressiv vorgegangen ist. Wobei der Begriff aggressiv der Maschine nicht zuordenbar ist, weil sie ja nicht vernünftig denkt. Der Pilot hat versucht, vorsichtig zu agieren und die Drohne auszumanövrieren. Das hat nicht funktioniert. Und das zweite Problem war, dass die Maschine Kurven fliegen konnte, die der Pilot nicht fliegen kann. Die Maschine hat den Menschen immer ausmanövriert. Wenn jetzt ein Staat so ein vollautonomes Kampfflugzeug besitzt, dann hat er natürlich eine klassische Überlegenheit gegenüber einem Gegner. Und derjenige ist automatisch gezwungen, nachzurüsten. Das erleben wir bei Hyperschallwaffen, bei Atomtorpedos, bei Drohnen, die sich auch schon gegenseitig bekämpfen und so fort. Die Angst, dass wir da irgendwann eine Grenze überschreiten wie bei den Atomwaffen, ist natürlich berechtigt.
Lange galten Drohnen in erster Linie als Kampfmittel eines technisch überlegenen Staates gegen vergleichsweise primitiv ausgerüstete Rebellen. Hat sich das geändert?
Ja, das hat sich in den letzten Jahren geändert. Zwar gibt es immer noch Auseinandersetzungen mit technologisch unterlegenen Gruppen. Aber es gibt jetzt auch einen erbitterten Wettstreit der Großmächte gegeneinander. Und in der neuen, multipolaren Welt, in der wir uns heute befinden, ist vieles unübersichtlicher geworden. Jetzt gibt es nicht mehr nur, wie zu Zeiten des Kalten Krieges, zwei Supermächte, die sich belauern. Heute mischen neben den USA und Russland auch China und Regionalmächte wie die Türkei, der Iran oder Taiwan mit. Die neuen technologischen Entwicklungen könnten dabei disruptive Ereignisse auslösen. Denken Sie zum Beispiel an den Drohnenangriff in Saudi-Arabien, wo die Iraner mit einem Drohnenschwarm eine Erdölraffinerie stillgelegt haben. Oder denken Sie an die Ereignisse in Gaza. Alle denken an den Iron Dome, die Wenigsten wissen, dass die Hamas auch Drohnen eingesetzt hat, um den israelischen Luftabwehrschirm zu unterlaufen.
Es gibt ja immer wieder Meldungen über "Kollateralschäden" von Drohnenangriffen. So wurden in Afghanistan statt Terroristen zum Beispiel Hochzeitsgesellschaften getroffen. Der Umstand, dass einige Männer aus Freude in die Luft schossen, wurde vom Drohnenpiloten falsch interpretiert. Kann man mittels künstlicher Intelligenz solche Fehler ausschließen?
Fehltreffer sind in der Kriegsführung nichts Neues. Gerade deswegen versucht man ja, mittels Drohnen das Ziel aufzuklären, damit man eben das vermeidet. Das Problem ist nur: Man kann keinen absolut sauberen Krieg führen. Das geht nicht. Das ist ein Widerspruch in sich. In dem Moment, wo die eine Seite das Feuer eröffnet und die andere zurückschießt, kommt es immer wieder zu Situationen, wo Zivilisten getötet werden. Etwa wenn eine fehlgeleitete Rakete ein ziviles Haus trifft. Die Drohne hat zwar geholfen, hier präziser zu werden. So hat etwa, um ein Beispiel zu geben, Ex-US-Präsident Barack Obama eine Rakete namens Ninja entwickeln lassen. Diese Rakete führt nur wenig Sprengstoff mit sich. Dafür verfügt sie über vier sogenannte "blades". Die klappen vor dem Einschlag aus und zerstückeln quasi ihr Ziel – wie Samuraischwerter, daher auch der Name Ninja. So brutal das auch ist: Das Ziel der Entwicklung dieser Rakete war, nur die Person zu treffen, die man treffen will, und die Umgebung zu schonen. Dennoch und trotz solcher Waffen kommt es immer wieder zu fatalen Fehltreffern. Etwa bei den jüngsten Evakuierungen der US-Amerikaner in Kabul. Da haben die US-Truppen nach einem verheerenden Anschlag ein Ziel geortet, einen Mann, der Kanister in ein Auto lädt. Sie dachten sich, hier wird erneut ein Anschlag vorbereitet, und griffen an. Es gab neun Tote. Später stellte sich heraus, der Mann war völlig unschuldig. Es war ein Unbeteiligter, der einfach nur mit seinen Kanistern Wasser holen wollte. Selbst beim besten Aufklärungsbild könne sie nie zu 100 Prozent Fehler ausschließen. Weil man einen Krieg nicht sauber und präzise führen kann.
Wie verändert eigentlich die Drohne die Kriegsführung? Machen Drohnen schweres Gerät wie etwa Panzer überflüssig? Senken sie die Hemmschwelle, sich auf kriegerische Abenteuer einzulassen?
Es kann schon sein, dass die Möglichkeit, Drohnen einzusetzen, Hemmschwellen senkt. Es ist einfacher, ein unbemanntes System irgendwo hinzuschicken als ein bemanntes. Sollte es abgeschossen werden, gibt es keine Verluste, und man kann auch abstreiten, der Aggressor gewesen zu sein – was ja auch laufend passiert. Über die Zukunft des Panzers wird tatsächlich diskutiert. Er bietet aus militärischer Sicht die einzige Möglichkeit, gepanzert – also geschützt – einen Raum in Besitz zu nehmen und auch zu halten. Wenn er aber nicht geschützt wird durch Systeme, die diese Drohnenangriffe abhalten, ist er natürlich wertlos. Weil diese Drohnen Panzer zerstören können – noch dazu sehr billig. Es gibt zum Beispiel Entwicklungen wie die fliegende Panzermine, die schweres Gerät kostengünstig zerstören kann.
Gibt es gegen solche Waffen einen Schutz für die Panzerbesatzung?
Ja. Der Panzer hat Systeme an Bord, die ein einfliegendes Objekt erkennen und eine Abwehrrakete starten können. Oder den Zünder des einfliegenden Objekts stören. Man muss aber sagen, dass das, was im Krieg um Bergkarabach passiert ist, noch nicht bei uns in Europa angekommen ist. Nicht nur die Armenier, auch wir wären derzeit einem Drohnenangriff hilflos ausgeliefert, weil unsere Fliegerabwehrsysteme in Europa nicht auf Drohnen programmiert sind, sondern immer noch auf Hubschrauber oder Flugzeuge. Drohnen sind sehr kleine Ziele mit einem geringen Radarquerschnitt. Und sie sind sehr, sehr schnell.
Wird es am Boden auch bald Roboterkriege geben? Ein gruseliges Video der Firma Boston Dynamics zeigt bereits, was so ein bewaffneter, menschenähnlicher Killerroboter alles kann.
Willst du diesen Inhalt sehen? Gib den anderen Cookies grünes Licht.
Ja, Roboterkriege sind auch am Boden möglich. Man darf aber nicht vergessen, dass diese Systeme noch große Achillesfersen haben. Zum Beispiel die Energieversorgung. Der Roboter in diesen Boston Dynamic-Videos kann das, was er kann, vielleicht eine Viertelstunde lang machen. Dann geht ihm die Energie aus – weil die Speicherkapazitäten nach wie vor sehr begrenzt sind. Und natürlich fehlt der Maschine, wie bereits angesprochen, die menschliche Vernunft. Was die Maschine kann, ist, dass sie beispielsweise einen Weg von A nach B geht, Hindernisse erkennt, ihre Datenbanken durchläuft und dann feststellt: aha, das ist jetzt ein Stein. Und dann sagt die Programmierzeile: gehe jetzt nach rechts und dann weiter. Mit richtiger Intelligenz hat das aber nichts zu tun. Wenn wir uns die neuralen Netzwerke, die wir im Kopf haben, ansehen – da können die Computer nur einen Bruchteil davon abbilden, jedenfalls zurzeit. Bestürzend ist die Entwicklung in China. Während wir im Westen versuchen, Maschinen zu entwickeln, Kampfroboter, sagen die Chinesen: Wir brauchen das gar nicht. Wir haben den perfekten Roboter: den Menschen. Was wir brauchen, ist eine USB-Schnittstelle, damit dieser Mensch das tut, was wir wollen. "Brain Maschine Interface" nennt sich das. Und wenn wir diesen Menschen mit genetischer Veränderung optimieren, ihn vielleicht mit Drogen noch leistungsfähiger machen – dann ist er die perfekte Kampfmaschine. Staaten, die nicht solche ethischen Bedenken haben wie wir, gehen hier sehr unbedenklich vor – getrieben von dem Wunsch, eine Überlegenheit herzustellen gegenüber jemand anderem.
Ist ein Verbot von Künstlicher Intelligenz in Waffensystemen, wie es von der UNO angestrebt wird, vor diesem Hintergrund realistisch?
Leider nein. Das ist völlig unrealistisch. Die Geschichte des Menschen hat gezeigt, dass immer zuerst etwas wirklich Einschneidendes passieren muss, bis der Mensch zur Vernunft kommt. Erst dann erkennt er, dass er zu weit gegangen ist und versucht, seine Systeme zumindest so einzuhegen, dass wir sie nicht in großem Stil aufeinander loslassen. An diesem Punkt sind wir aber leider noch nicht. Im Moment versprechen sich viele Staaten einen Vorteil von Entwicklung von Kampfdrohnen. Denken Sie daran, was Russlands Präsident Wladimir Putin vor ein oder zwei Jahren gesagt hat: Derjenige, der die künstliche Intelligenz beherrscht, wird der Herrscher der Welt sein. Das ist natürlich eine Kampfansage. Sowohl der Westen als auch Russland und China haben Angst, dass die andere Seite einen Vorteil hat und rüsten auf. Natürlich gibt es auch Länder, die diese Entwicklung regulieren wollen. Da sagen die Großmächte dann: Ja kriegt ihr denn gar nicht mehr mit, was in der Welt gerade passiert? Die Russen zeigen, dass sie Satelliten abschießen können. Polen kauft Drohnen in der Türkei. Die Ukrainer ebenfalls - und sie setzen die Drohnen im Donbass auch schon ein. Wir befinden uns in einem Dilemma, aus dem wir kaum mehr herauskommen, solange wir uns nicht zusammensetzen und eine Lösung finden. Im Moment sehe ich diese Vernunft nicht.
Könnten nicht auch die Entwickler dieser Systeme Alarm schreien?
Der Techniker – ich bin ja selbst einer und habe in einer Drohnenfirma gearbeitet - kümmert sich meist nur sehr wenig um Moral und Ethik. Er ist davon getrieben, etwas zu entwickeln, zu perfektionieren. Das von ihm entwickelte Gerät soll so viel können wie möglich. In diesem funktionalen Denken ist kein Platz für eine intervenierende Vernunft, die sagt, Moment, das geht jetzt in eine Richtung, die wir nicht mehr kontrollieren können. Es ist wie bei der Entwicklung der Atombombe, die ja auch ein Wettlauf zwischen den USA, Nazi-Deutschland und Japan war. Deren Chefentwickler Robert Oppenheimer hat auch nicht innegehalten und gesagt: ihr wisst aber schon, was wir da gerade zusammenbasteln? Erst nach der Explosion der Bombe, nach Hiroshima und Nagasaki hat er sich als Zerstörer der Welten bezeichnet. Da war der Schuss aber schon abgefeuert.
Aber können wir uns die nächste Katastrophe leisten?
Nun, Denker wie Steven Hawkings zum Beispiel haben gesagt, die Künstliche Intelligenz ist möglicherweise die letzte Entwicklung der Menschheit vor ihrem Untergang. Das klingt schon mehr als bedrohlich. Wobei man sagen muss, dass die Technik von der Genialität eines menschlichen Gehirns noch sehr weit entfernt ist.
Kann man sagen, dass die Drohne und die künstliche Intelligenz die Kriegsführung revolutionieren?
Ja, das tun sie. So wie es auch früher immer wieder der Fall war. Ein berühmtes Beispiel ist hier die Armbrust. Durch sie konnte ein einfacher Bauer einen Ritter vom Pferd schießen. Das war eine gesellschaftliche Revolution: Der Ritter hatte immerhin eine jahrelange Ausbildung hinter sich, viel in seine Rüstung investiert und so weiter. Der damalige Papst Innozenz versuchte, die Krieger dazu zu bringen, auf die Armbrust zu verzichten. Zumindest gegen gute Christenmenschen sollte sie nicht mehr eingesetzt werden. Dieser versuchte Bann hatte allerdings keine Wirkung. Natürlich haben sich sowohl Unterlegene wie Feldheere weiterhin Armbrüste besorgt, weil sie darin – zu Recht - einen Vorteil sahen. Es geht immer um Asymmetrie. Wenn der eine einen starken Panzer hat, braucht der andere eine größere Kanone. Dann muss die andere Seite wieder aufrüsten und so weiter.
Nicht nur Supermächte wie die USA setzen Drohnen ein. Auch im Jemen oder in Äthiopien finden mittlerweile Drohnenkriege statt. Ist die Drohne die Waffe des kleinen Mannes?
Ja, durchaus. Wobei man unterscheiden muss zwischen staatlichen und nichtstaatlichen Akteuren. Letztere werden ja oft als Separatisten, Terroristen oder Rebellen bezeichnet. Oder Freiheitskämpfer, je nach Standpunkt des Betrachters. Diese kleinen Gruppen haben erkannt, dass durch den Einsatz dieser Drohnen auch sie in der Lage sind, eine kleine Luftwaffe zu haben. Das hat man bereits beim Islamischen Staat (IS) gesehen. Der hat Drohnen in großem Stil eingesetzt. Die dienten nicht nur zur Aufklärung, sie waren auch bewaffnet und bekämpften die gegnerischen Soldaten. Nun ist es oft so, dass staatliche Akteure solche Rüstungsgüter oft nichtstaatlichen Akteuren geben, damit sie gegen andere staatliche Akteure vorgehen können. Der russische Luftwaffenstützpunkt in Syrien zum Beispiel wurde von einem Drohnenschwarm angegriffen. Da stellt sich schon die Frage, haben jetzt die syrischen Rebellen diesen Drohnenschwarm gebaut oder jemand anderer. Oder denken Sie an den Jemen, wo eine Koalition arabischer Streitkräfte unter Führung der Saudis gegen die Huthis kämpft. Diese Huthis greifen die Saudis mit Drohnen an, die sie nicht selbst gebaut, sondern vom Iran bekommen haben. Hier hat der staatliche Akteur Iran den nichtstaatlichen Huthis dieses System zur Verfügung gestellt.
Umso schwerer wird es wohl, diese Entwicklung noch zu kontrollieren.
Ja, die Büchse der Pandora ist schon lange geöffnet. Vor kurzem wurden auch in Europa das erste Mal in Frankreich Drohnen entdeckt, die bereits mit Sprengstoff beladen waren. Damit ist klar, die Problematik ist bei uns angekommen. Es ist nur eine Frage der Zeit, bis - zum Beispiel - eine mit Sprengstoff beladene Drohne in ein Stadion stürzt. Dabei wäre nicht so sehr die Detonation das Problem, sondern die anschließende Massenpanik. Drohnen werden heute überall eingesetzt. Jeder, der etwas auf sich hält, hat diese Systeme oder versucht, Abwehrsysteme zu entwickeln. Es geht dabei auch darum, im Falle wichtiger Verhandlungen der anderen Seite zeigen zu können, was man an Werkzeugen in der Kiste hat. Und veraltetes Werkzeug schwächt die Verhandlungsposition.
Erwägt Österreich eigentlich die Anschaffung von Kampfdrohnen?
Wir versuchen, in mehreren Bereichen teilautonome Systeme zu nützen. Einmal dort, wo es um den Schutz der Soldaten geht, zum Beispiel Entminungssysteme. Oder Aufklärungssysteme, damit man – beispielsweise im Auslandseinsatz - weiß, wenn man von A nach B fährt, dass man nicht in einen Hinterhalt gerät. Hier hat die Drohne etwas absolut Hilfreiches, Gutes. Grundsätzlich darf man aber eines nicht vergessen: Die Technik ist nicht perfekt. Viele glauben heute aus der Alltagserfahrung ja, wenn ich etwas in den Computer eingebe, spuckt der mir immer das richtige Ergebnis aus. Das täuscht. Von der berühmten Drohne Predator zum Beispiel ist bei Einsätzen über die Hälfte der rund 250 eingesetzten Drohnen abgestürzt aufgrund technischer Gebrechen. Es kommt einfach zu Fehlern. Und das wirft die Frage auf: Will ich mich wirklich blind auf die Maschine verlassen? Die Frage, die Philosophen wie Günther Anders, Herbert Marcuse oder Martin Heidegger gestellt haben, ob der Mensch nicht bereits von der Technik so gut wie beherrscht wird, ist hochaktuell.