Zum Hauptinhalt springen

Die Entmenschlichung des Tötens

Von Ronald Schönhuber

Politik
Der von Boston Dynamics entwickelte "Big Dog" gilt als Urahn moderner Militärroboter. Seine Nachfahren können Einsätze dank Künstlicher Intelligenz autonom durchführen.
© reutes

Kampfroboter können mittlerweile selbständig Ziele auswählen und eliminieren.


Genf/Wien. Das Video ist zwar mittlerweile zwölf Jahre alt, aber noch immer geeignet, Gänsehaut hervorzurufen. Zu sehen ist in dem knapp drei Minuten langen Clip, den das US-Robotikunternehmen Boston Dynamics produziert hat, ein vierbeiniger Roboter von der Größe eines Maultiers, der sich, bepackt mit in Camouflage-Farben gehaltenen Rucksäcken, seinen Weg durch unwegsames Gelände bahnt. Die Bewegungen des "Big Dog" wirken zwar manchmal unbeholfen, gleichzeitig ist aber ersichtlich, dass sich die knapp 75 Kilo schwere Maschine durch nichts aufhalten lässt. Selbst als ein Mitarbeiter mit voller Wucht gegen den Roboter tritt, taumelt dieser nur kurz zur Seite, um danach unbeirrt weiterzumarschieren.

Keine Befehlsverweigerung

Der "Big Dog" ist allerdings nur der Urahn der modernen Kriegsroboter. Seine Nachfahren, die derzeit in der Forschungslabors der großen Militärmächte entwickelt werden, sind nicht nur ausgereifter und stärker, sondern verfügen in zunehmendem Maße auch über Künstliche Intelligenz. So ist es heute möglich, Kampfroboter zu bauen, die selbständig Ziele auswählen und dann auch ausschalten. Dabei geht es nicht nur um Geschützstellungen oder Treibstofflager, die Drohnen mit Raketen und Bomben unter Beschuss nehmen können. Dank fortgeschrittener Gesichtserkennungssoftware ist es mittlerweile auch nicht mehr schwierig, zuvor ausgewählte Personen oder ganze Personengruppen gezielt ins Visier zu nehmen.

Die Waffentechnik steht damit nach der Erfindung des Schießpulvers und der Entwicklung von Atomwaffen vor ihrer dritten Revolution. Denn bisher hatte immer noch der Mensch, selbst wenn er tausende Kilometer vom eigentlichen Kriegsgebiet entfernt den Angriff einer Drohne steuerte, die Letztentscheidung über Leben oder Tod. Bei mit Künstlicher Intelligenz ausgestatteten Waffensystemen ist diese Instanz, also der sprichwörtliche Finger am Abzug, nicht mehr nötig. Wer stirbt und wer nicht, obliegt dann Algorithmen und autonom lernende Computersystemen.

Krieg ohne unschöne Bilder

Aus Sicht der militärischen Entscheider ist die Aussicht auf maschinengeführte Kriege natürlich verlockend. Denn wenn die derzeit mit enormen finanziellen Mitteln unterstützte Entwicklung weiter so schnell voranschreitet wie bisher, werden Kampfroboter menschlichen Soldaten wohl schon bald überlegen sein. Das betrifft nicht nur grundsätzliche militärische Parameter wie etwa die Treffergenauigkeit oder die physische Ausdauer. Anders als ihre Pendants aus Fleisch und Blut kennen die Blechsoldaten weder Angst noch Stress und verweigern keine Befehle.

Autonome Waffensysteme sind für die Generalstäbe aber auch aus ökonomischer Sicht interessant geworden. So hat etwa Südkorea entlang der demilitarisierten Zone rund 5000 Beobachtungsposten eingerichtet, von denen aus geschätzte 120.000 Soldaten die Grenze im Norden im Blick behalten. Schon seit 2006 testet die Regierung in Seoul den von Samsung entwickelten Roboter SGR-A1, der nicht nur Bewegungen bis zu einer Entfernung von vier Kilometern erkennen kann, sondern auch über die Fähigkeit verfügt, verdächtige Objekte zu verfolgen und im äußersten Fall auch mit seinem Maschinengewehr zu eliminieren.

Am wichtigsten dürfte für die Militärs bei der Entwicklung von Kampfrobotern allerdings sein, dass der Krieg - zumindest auf der technologisch hochgerüsteten Seite - ein deutlich weniger hässliches Antlitz bekommt. Denn anders als beim Einsatz menschlicher Soldaten gibt es bei fehlgeschlagenen Einsätzen von Kampfrobotern weder verstörende Bilder von toten Soldaten, die in Särgen in die Heimat zurückgeschickt werden, noch trauernde Angehörige, die den Sinn des Krieges hinterfragen. Alles, was bleibt, ist eine kaputte Maschine, die aus Steuergeldern finanziert wurde.

Wer trägt die Verantwortung?

Was für viele Militärs nur die logische Anwendung des technologisch Möglichen ist, stellt für viele Kritiker allerdings die Büchse der Pandora dar, die unbedingt geschlossen gehalten werden muss. Denn die stählernen Killer werfen eine Unzahl von Fragen auf, auf die es heute so gut wie keine Antworten gibt: Können Kampfroboter erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist? Sind die Algorithmen in der Lage, einen Jäger, der eine Waffe trägt, von einem Soldaten zu unterscheiden? Und wer trägt letztendlich die Verantwortung, wenn ein Roboter, der von keinem Menschen mehr kontrolliert wird, ein Kriegsverbrechen begeht?

Eine internationale Kampagne gegen Killerroboter und Menschrechtsorganisationen wie Amnesty International setzen sich daher für die völlige Ächtung von Kampfrobotern ein. "Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand", sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, die Mitglied der Kampagne gegen Kampfroboter ist, zur Deutschen Presseagentur. Die Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

Wie schwierig ein solches Verbot auf internationaler Ebene durchzusetzen ist, zeigt allerdings der unter dem Dach der UNO laufende Prozess, der seit Montag mit einer großen einwöchigen Konferenz in Genf fortgesetzt wird. So konnte das erste Treffen, das eigentlich im Frühjahr 2017 stattfinden sollte, auf Grund fehlender finanzieller Mittel nicht einmal abgehalten werden. Und auch in Genf, wo Abrüstungsexperten aus mehr als 75 Ländern beraten, dürften sich kaum mehr als 30 Staaten (darunter Deutschland, Frankreich und Österreich) für ein komplettes Verbot aussprechen. Denn die großen Militärmächte USA, China und Russland wollen sich bei ihren Waffenprogrammen ebenso wenig einschränken lassen wie kleinere Länder in Konfliktregionen wie etwa Israel oder Südkorea.