Hyperschallraketen machen atomaren Erstschlag wirkungsvoll. Künstliche Intelligenz soll darauf eine Antwort finden.
Hinweis: Der Inhalt dieser Seite wurde vor 4 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Seit 24. Jänner zeigt die Weltuntergangsuhr zum ersten Mal seit ihrem Start auf hundert Sekunden vor zwölf. Die symbolische Uhr soll der Weltöffentlichkeit verdeutlichen, wie groß das derzeitige Risiko einer globalen Katastrophe ist. Wissenschaftern zufolge bedrohe neben dem Klimawandel die Gefahr eines Atomkrieges die Welt.
"Alle neun Nuklearstaaten rüsten auf", sagt Thomas Pankratz, Politikwissenschafter am Institut für Strategie und Sicherheitspolitik der Landesverteidigungsakademie in Wien. Dieses neue Wettrüsten sei bereits seit Jahren im Gang. Im August 2019 wurde der INF-Vertrag (Washingtoner Vertrag über nukleare Mittelstreckensysteme) zwischen Russland und den USA außer Kraft gesetzt. Seitdem testen die US-Streitkräfte neue Mittelstreckenwaffen. Als einen Grund für den Ausstieg nennt Pankratz, dass das Abkommen lediglich für Russland und USA die Abrüstung von Mittelstreckensystemen vorsah, während China ungehindert aufrüsten konnte.
Putins Superwaffe
Tatsächlich hat Peking sein Raketenarsenal modernisiert und erweitert. Unter dem Namen Dong Feng, Ostwind, entwickelten die Chinesen neue Waffensysteme. Die Raketen sind nach Osten ausgerichtet; auf den Pazifik, in Richtung Taiwan, Japan und Südkorea. Im Visier sind auch die USA und ihre Stützpunkte in der Region.
Als militärisch brisanter als die Pazifikregion erachtet Pankratz den schwelenden Konflikt zwischen den Atommächten Indien und Pakistan. Beide Staaten investieren vor allem in Kurz- und Mittelstreckenraketen - Waffensysteme, die für den unmittelbaren Gefechtseinsatz gedacht sind. "Kommt es zum offenen Krieg, ist die Gefahr groß, dass wegen der konventionellen militärischen Überlegenheit Indiens die Pakistani als Erste Nuklearwaffen am Gefechtsfeld einsetzen", so der Politikwissenschafter.
Das Aufrüsten der USA und die Expansion der Nato an seine Westgrenze betrachtet Moskau mit Sorge. Deshalb fließt wieder deutlich mehr Geld in die Entwicklung neuer Waffen. Bereits im Sommer 2018 kündigte Russlands Präsident Wladimir Putin die Produktion der "absoluten Waffe" an. Seit Dezember vergangenen Jahres soll sie funktionsfähig sein. Bei Putins Superwaffe handelt es sich um den hypersonischen Gleiter Avangard. Solche Hyperschall-Waffensysteme erreichen ein Vielfaches der Schallgeschwindigkeit und gelten in der militärischen Rüstung neben dem Einsatz von Künstlicher Intelligenz (KI) als die Waffen der Zukunft.
Der Gleiter Avangard wird von einer Trägerrakete in die äußere Atmosphäre befördert, von wo er mit bis zu 20-facher Schallgeschwindigkeit auf die Erde stürzt. Von klassischen Abwehrraketen kann er nicht eingeholt werden. Neben der hohen Geschwindigkeit ist der Gleiter außerdem im Flug lenkbar. "Die USA haben keine Chance das Ding abzufangen", so Pankratz. Als Trägerrakete käme die ebenfalls neu entwickelte Sarmat in Frage. Die Interkontinentalrakete kann bis zu 15 Atomsprengköpfe tragen. Mit ihrer hohen Reichweite ist sie in der Lage, die USA auch über die Südhalbkugel anzufliegen, um damit den nach Norden ausgerichteten Raketen-Abwehrschild der US-Streitkräfte zu umgehen.
Riesige Gefechtsköpfe
Eine weitere Waffe in Putins Arsenal ist die sogenannte Poseidon. Eine Unterwasser-Drohne mit einer Reichweite von 3000 Kilometern und einer Geschwindigkeit von 100 km/h. Bei einer Tauchtiefe von bis zu 1000 Metern kann sie unerkannt gegnerische Küsten erreichen. "Eine reine Vergeltungswaffe", wie Pankratz sagt. Denn entgegen dem Trend, Gefechtsköpfe kleiner zu machen, um dadurch die Zielgenauigkeit zu erhöhen, verfügt die Poseidon über einen Gefechtskopf von zwei Megatonnen. "Damit können ganze Küstengebiete großräumig verstrahlt werden", so der Politikwissenschafter.
Jedes Mal, wenn eine Supermacht eine neue Waffe in Betrieb nimmt, gewinnt das Wettrüsten an Tempo. Bei einem Raketenangriff hatten US- oder russische Staatspräsidenten bisher ein gewisses Zeitfenster (man rechnet mit 20 Minuten), um zu reagieren, so Pankratz. Genug Zeit, um seine eigenen Waffen zum nuklearen Gegenschlag zu starten. Ein wirkungsvoller Erstschlag war unter diesen Bedingungen wenig erfolgversprechend. "Wenn heute eine Rakete gestartet wird, reduziert sich die Zeit bis zum Einschlag auf wenige Minuten." Das führe in den USA zu Überlegungen, autonome Waffensysteme zu installieren, die, sobald sie eine anfliegende Rakete registrieren, den Gegenschlag selbständig starten. Eine Fehlinterpretation durch die KI hätte verheerende Folgen. Verfügt auch der Gegner über ein autonomes System, kann ein automatischer Rückschlag eine tödliche Kettenreaktion auslösen.
"Autonome Waffensysteme sind Teil des neuen Wettrüstens", so Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter. Kennzeichen solcher Systeme sei, dass sie mit Hilfe von KI selbständig Entscheidungen treffen. Das können selbstnavigierende Panzer sein, unbemannte U-Boote oder Drohnen. Möglich wären aber auch KI-gesteuerte Systeme, die im Kampfeinsatz autonom Ziele erfassen und beschießen, ohne dass ein Mensch an der Entscheidung zu töten beteiligt ist. Experten sprechen in diesem Zusammenhang von der dritten großen Revolution der Kriegsführung - nach der Erfindung von Schießpulver und Nuklearwaffen.
Doch in Verbindung mit dem Einsatz von KI in Waffensystemen sind viele Fragen unbeantwortet, betont Küchenmeister. Etwa, ob die KI in der Lage ist, zwischen Soldaten und Zivilisten zu unterscheiden. Oder ob sie die Verhältnismäßigkeit eines Waffeneinsatzes einschätzen kann. Das seien komplexe Entscheidungen, die immer abhängig vom Kontext zu treffen sind. "Aber Maschinen verstehen keinen Kontext", so Küchenmeister, der sich für strenge Regelungen im Umgang mit autonomen Waffensystemen ausspricht.
Experten fordern Verbot
Doch lange bevor noch irgendeine international anerkannte Regelung in Sicht ist, nimmt die Menge an KI-gesteuerten Systemen rasant zu. "Das zeigt sich daran, dass die IT-Branche immer präsenter auf Waffenmessen ist", so Küchenmeister. Cloud Computing, maschinelles Lernen, autonomes Fahren oder Gesichtserkennung sind für die Waffenindustrie hochinteressant. Dabei stehen viele in der Branche den Entwicklungen kritisch gegenüber. Hunderte Wissenschafter und Unternehmen aus der Technologiebranche forderten bereits 2017 ein Verbot sich selbst lenkender Waffen.
Auch Bernhard Schneider, Leiter des Bereichs Recht und Migration des Österreichischen Roten Kreuzes, ist skeptisch: "Solange die KI bei autonomen Systemen nicht mindestens so gut oder besser funktioniert wie ein Mensch, sollte sie nicht eingesetzt werden." In jedem Fall aber müsse die Verantwortung im Gefecht bei den Kommandanten bleiben und dürfe nicht an Maschinen abgegeben werden. Schneider verweist außerdem auf die möglichen Auswirkungen des Einsatzes KI-gesteuerter Waffensysteme. Indem zunächst nicht Menschen, sondern Maschinen gegen den Feind geschickt werden, könnte die Hemmschwelle sinken, einen Konflikt zu beginnen. Auch würden autonome Waffensysteme es diktatorischen Regimen erleichtern, die eigene Bevölkerung unter Kontrolle zu halten. Denn anders als Polizei oder Militär haben Maschinen keine Bedenken, auf Menschenansammlung zu schießen, so Schneider.
Verhandlungen gescheitert
Doch alle Versuche, rechtlich bindende Verträge oder internationale Richtlinien im Umgang mit autonomen Waffensystemen zu schaffen, scheiterten bisher. Staaten wie die USA, Russland, Israel, Frankreich oder Großbritannien, die in der Forschung und Anwendung autonomer Systeme schon weit vorangeschritten sind, wollen sich durch einschränkende Verträge nicht blockieren lassen.
Fest steht aber auch, dass autonome Systeme nicht grundsätzlich schlecht sind. Sie können, verantwortungsvoll eingesetzt, auch Leben retten. So etwa KI-gesteuerte Roboter, die anstelle von Menschen Minen räumen. Der springende Punkt ist, ob wir in einer Welt leben möchten, in der Maschinen über Menschenleben entscheiden. Oder ob die Entscheidung zwischen Leben und Tod dem Mensch vorbehalten sein sollte. Mit allen Konsequenzen, die er dann auch weiterhin selbst zu tragen hat und nicht an eine Maschine abgeben kann.