Zum Hauptinhalt springen

Krieg 4.0 - Killer-Roboter als nächste Stufe

Von Anja Oberkofler

Gastkommentare

Dass Künstliche Intelligenz das Kriegsrecht und den Schutz von Zivilisten immer beachten wird, muss bezweifelt werden.


Wer kennt nicht "Terminator" oder "Death Machine"? In diesen Science-Fiction-Filmen töten mit Künstlicher Intelligenz ausgestattete Maschinen Menschen - ganz selbständig und ohne, dass ein Mensch mitwirkt oder eingreift. In der Realität werden solche Maschinen "Tödliche Autonome Waffensysteme" genannt. Diese Killer-Roboter sind keine Utopie mehr, sondern bereits "Science Fact". Es gibt bereits heute solche Systeme, die in Konflikten rund um den Globus eingesetzt werden, und es ist absehbar, dass es schon in naher Zukunft deutlich mehr davon geben wird.

Warum ist das ein Problem? Die Geschichte zeigt unbarmherzig, dass sich Kriege nicht immer vermeiden lassen. Doch im Krieg ist nicht alles erlaubt. Alle Beteiligten müssen Regeln beachten, die das Leben und die Würde der Menschen schützen. Diese Regeln sind im humanitären Völkerrecht verankert, dessen Grundstein der Gründer des Roten Kreuzes, Henry Dunant, nach der verheerenden Schlacht von Solferino im Jahr 1859 legte. Im Angesicht der Schrecken der folgenden Kriege, vor allem auch der beiden Weltkriege, wurden auf internationaler Ebene Rechtsnormen zur Mäßigung der Kriegsführung und zur Linderung des Leides verankert.

Diese Rechtsnormen suchen einen Ausgleich zwischen zwei gegenläufigen Interessen: den militärischen Notwendigkeiten bei der Kampfführung und der Bewahrung des Prinzips der Menschlichkeit im bewaffneten Konflikt. So dienen die Regeln nicht nur dem Schutz der Zivilbevölkerung, sondern auch dem Schutz verwundeter Soldaten und des medizinischen Personals. Im Krieg dürfen "nur" Soldaten und militärische Einrichtungen bekämpft werden. Soldaten sind jedoch zu schonen, wenn sie krank oder verwundet sind oder wenn sie sich ergeben. Vor jedem Waffeneinsatz ist zwischen dem dadurch zu erwartenden militärischen Vorteil und den möglichen zivilen "Kollateralschäden" abzuwägen. Das Ziel dieser Abwägung muss sein, keine unverhältnismäßigen zivilen Schäden zu riskieren und einen Angriff nötigenfalls abzubrechen, falls der zu erwartende militärische Vorteil in keinem angemessenen Verhältnis zu den absehbaren Schäden für die Zivilbevölkerung und zivile Einrichtungen steht. Diese Abwägung ist Ausdruck des im bewaffneten Konflikt einzuhaltenden Grundsatzes der Verhältnismäßigkeit. Sie ist alles andere als einfach und erfordert viel Erfahrung, Wissen und Kompetenz und nicht zuletzt auch Einfühlungsvermögen.

Ernste moralischeund ethische Fragen

Diese komplexen und schwierigen Analyse- und Abwägungsprozesse lassen sich nur sehr schwer bis gar nicht programmieren. Aufgrund bisheriger Erfahrungen mit Künstlicher Intelligenz ist zu befürchten, dass das Verhalten von autonomen Waffensystemen nicht verlässlich vorhergesagt werden kann. Es darf nicht sein, dass das Führen von Kriegen in Zukunft noch einfacher als bisher wird, weil reiche Staaten in Hinkunft Maschinen aufs Schlachtfeld schicken, anstatt das Leben ihrer eigenen Soldaten riskieren zu müssen. Damit wird auch der innenpolitische Diskurs um die Sinnhaftigkeit eines Krieges abgewürgt. Wird nicht mehr der eigene Sohn oder die eigene Tochter aufs Schlachtfeld geschickt, wird der Widerstand der eigenen Bevölkerung gegen einen Krieg wesentlich geringer sein.

Beim Einsatz tödlicher autonomer Waffensysteme stellen sich ernste moralische und ethische Fragen. Sollen Entscheidungen über Leben oder Tod ohne menschliches Zutun von einem Programm getroffen werden? Sollen Soldaten aus Fleisch und Blut, deren Familien um ihr Leben bangen, automatisierten Gegnern gegenüberstehen, denen jedes menschliche Gefühl fremd ist, die keine Angst und keine Zweifel kennen und die sich in die psychische Verfassung ihrer menschlichen Gegner nicht einmal ansatzweise hineinversetzen können? Soll die eigene Roboterarmee allenfalls gehackt und umprogrammiert werden, um dann gegen die eigene Bevölkerung eingesetzt zu werden? Sollen autonomen Waffensysteme in Bürgerkriegen benutzt werden?

Neuer Rüstungswettlaufder großen Militärnationen

Solche Fragen müssen in einem breiten politischen und zivilgesellschaftlichen Diskurs im Detail erörtert und geklärt werden, und zwar bevor eine so weitgehende neue Technologie zum Einsatz kommt. Derzeit passiert das Gegenteil: Die technologisch führenden Staaten und ihre Militärs forschen ungebremst, um nur ja nichts zu versäumen und nicht von einem anderen Staat überflügelt zu werden. Die rechtlichen, ethischen und praktischen Fragen interessieren bei diesem neuen und in der Öffentlichkeit noch wenig bekannten Rüstungswettlauf nicht und bleiben daher ungelöst. Dies ist der falsche Ansatz. Derartige Waffensysteme gehören verboten, bevor sie Hals über Kopf entwickelt in völlig unausgereiftem Zustand auf den Kriegsschauplätzen dieser Welt zum Einsatz kommen, um Menschen zu töten. Schließlich warten wir auch mit dem Einsatz von selbstfahrenden Autos zu, bis deren Zuverlässigkeit und Sicherheit restlos geklärt und belegt ist.

Bei tödlichen autonomen Waffensystemen ist ein noch höherer Sorgfaltsmaßstab angezeigt. Die großen Militärnationen dieser Welt sind jedoch gerade dabei, diesen um des vermeintlichen militärischen Vorteils willen zu ignorieren. Sollten sie damit Erfolg haben, werden wir alle die negativen Folgen zu tragen haben. Aus diesem Grund haben sich mehr als 100 Organisationen in mehr als 50 Ländern in der "International Campaign to Stop Killer Robots" zusammengeschlossen. In Österreich setzt sich das Österreichische Rote Kreuz, der Tradition seines Gründers verbunden und verpflichtet, gemeinsam mit KRC Austria, dem österreichischen Zweig der internationalen Kampagne, für das Verbot dieser tödlichen autonomen Waffensysteme ein. Noch ist Zeit zum Handeln da, aber die Uhr tickt unaufhörlich, und wenn der Terminator real wird, wird es zu spät sein.