Zum Hauptinhalt springen

Wenn Roboter auf dem Schlachtfeld entscheiden

5 Min
Eine Collage zum Thema KI in der Kriegsführung.
Soldaten kämpfen im Ukraine-Krieg mit Drohnen und Apps.
© Illustration: WZ, Bildquelle: Adobe Stock

Künstliche Intelligenz (KI) hat im Krieg das Kommando übernommen, ohne sie kann ein Krieg kaum noch gewonnen werden. Das zeigt der bewaffnete Konflikt in der Ukraine.


Die Videos von der ukrainisch-russischen Front sind furchtbar: Im Web sieht man Soldat:innen wie die Hasen durch Schützengräben hetzen – vergeblich. Die fliegenden Kampfdrohnen, von denen sie verfolgt werden, lassen sich nicht abschütteln. Die Maschinen bringen sich in Stellung, eine Bombe wird ausgeklinkt und fällt. Der Rest ist ausgeblendet. Der/die Zuseher:in erfährt durch eine Schriftsequenz, dass hier soeben ein Soldat getötet wurde. Ob es ein Russe oder Ukrainer war, bleibt unklar. Nicht erkennbar ist auch, ob die Drohne in diesem Video ihr lebendes Ziel eigenständig ausgewählt, verfolgt und umgebracht hat oder ob sie von einem Menschen gesteuert wurde.

Tatsache ist: Es gibt sie, die autonomen Killermaschinen und sie sind auf beiden Seiten im Einsatz. Sie sind so gebaut, dass sie ihr Ziel aufspüren und zuschlagen. Ein Mensch ist unmittelbar nur noch als Opfer beteiligt. Künstliche Intelligenz (KI) hat scheinbar das Kommando übernommen und der Krieg in der Ukraine ist ein Experimentierfeld für künftige technologische Entwicklungen. Deshalb beobachten Militärexpert:innen weltweit die brutalen Gefechte im Osten Europas ganz genau.

Kamikaze-Drohnen

Dort ist ein digitaler Wettlauf im Gang, tausende Drohnen sind im Einsatz. Da gibt es Kamikaze-Fluggeräte vom Typ „Lancet“, die regungslos über dem Schlachtfeld schweben und warten, bis sich ein lohnendes Ziel auftut. Wird ein solches erfasst, stürzt sich die russische Drohne darauf und vernichtet es. Die Sprengladung reicht, um einen Panzer zu zerstören. Herkömmliche Luftabwehr ist machtlos, die Angegriffenen verlegen sich darauf, den Maschinen mit Gewehrschüssen beizukommen. Versuche, den Funkkontakt zu den feindlichen Drohnen zu unterbinden, bevor sie ihr Ziel erreichen, sind sinnlos. Die „Lancet“ braucht keine Fernsteuerung mehr, das System ist immun gegen Störversuche, auch gegen das Verfälschen von GPS-Daten. Auf ukrainischer Seite gibt es Waffen, die ganz ähnlich funktionieren.

Endloser Stellungskrieg in den Schützengräben ist die eine Realität in der Ukraine. Die andere Seite ist, dass der Krieg wegen KI enorm schnell geworden ist. Soldat:innen verwenden handelsübliche Kleindrohnen, die mit Software für Tablets verbunden sind. Die Drohnen produzieren massenhaft Echtzeit-Luftbilder, die via App mit „intelligenter Artillerie“ gekoppelt werden. Die Geschütze, die dutzende Kilometer entfernt sein können, eröffnen in der Sekunde das Feuer. Eine blitzartige „Cyber Kill Chain“ mit durchschlagender Wirkung − sie hat vor allem Russland zahllose Panzer gekostet.

Google Maps für das Schlachtfeld

KI kann aber auch hochkomplexe Lagebilder erstellen. Dann, wenn Satellitenbilder, Luftaufnahmen, Radar und die Informationen von menschlichen Spähern am Boden eingespeist werden. So können via KI weiterreichende militärische Entscheidungen getroffen werden – Angriff, Rückzug oder abwarten in der Deckung. Wie „effizient“ ein herkömmlicher Panzer oder ein Angriff von Soldat:innen ist, bestimmt bereits die KI. Die US-Firma Palantir hat die Software MetaConstellation entwickelt, die auf ukrainischer Seite eingesetzt wird. Sie kann als Google Maps für das Schlachtfeld bezeichnet werden und übersieht kaum etwas.

Militärexpert:innen weisen darauf hin, dass der Übergang von hochautomatisierten Waffen zu vollständig autonomen Killerrobotern fließend ist. Marschflugkörper, Drohnen und Lenkwaffen verfügen längst über alle nötigen Fähigkeiten, die sie brauchen, um selbst zu entscheiden, welche Ziele sie angreifen. Bei den meisten Waffen müsste man nur wenig ändern – etwa einen Schalter umlegen –, dann könnten sie autonom agieren.

Der Mensch ist reiner Störfaktor

Als ethische Forderung steht im Raum, dass der Mensch bei militärischen Entscheidungen immer die Letztverantwortung haben muss. Das widerspricht aber der KI-Logik, die den Menschen als verzögernden, fehleranfälligen Faktor identifiziert, den es zu überwinden gilt.

Wobei sich hier die erhofften Vorteile durch nicht komplett durchdachte Software in ihr Gegenteil verkehren können, wie eine Simulation in den USA zeigte. So war eine Kampfdrohne darauf trainiert, ihren Betreiber nicht anzugreifen. Das änderte sich, als die KI merkte, dass sie Feinde erkannte, die der Betreiber aber aus triftigen Gründen nicht getötet wissen wollte. Die KI (die mit allgemeiner menschlicher Intelligenz nichts zu tun hat) beschloss autonom, ihren Betreiber zu töten – weil er sie daran hinderte, ihr Ziel zu erreichen.

Furchterregende Perspektive

Nicht nur der Friedensforscher Thomas Roithner bekommt es angesichts all dieser Entwicklungen mit der Angst zu tun: Bei der Frage, ob vollständig autonome Waffensysteme die Entscheidung über Leben oder Tod treffen sollten, werde einem „bange“, meint er gegenüber der WZ. Autonomen Waffensystemen sei schwer beizukommen, denn sie seien „ein Bombengeschäft für ganz wenige“ und in Zeiten globaler politischer und ökonomischer Machtverschiebungen gebe niemand „einen Trumpf aus der Hand“.

Roithner verweist darauf, dass Österreich immerhin bei den internationalen Bemühungen, Killerroboter zu verbieten, in der ersten Reihe stehe. Was nichts daran ändert, dass der Künstlichen Intelligenz die Zukunft gehört. Nutzt eine Kriegspartei KI und die andere nicht, kann letztere kaum noch mit einem Sieg auf dem Schlachtfeld rechnen.