Maschinenmenschen
als Supersoldaten

Parallel zur Entwicklung der Roboter forschen amerikanische Wissenschafter an einer Verbindung zwischen Mensch und Maschine, die einen "Super-Soldaten" schaffen soll. Der deutsche Politologe Christian Weidlich hat sich mit der Thematik auseinadergesetzt: Das Pentagon investiere 400 Millionen Dollar pro Jahr, weiß er. Die Hoffnung sei es, "die nächste Generation übermenschlicher Krieger zu entwickeln". In das Gehirn eingepflanzte Sonden sollen Angstzustände unterdrücken, Implantate Hormone freisetzen, die Emotionen gezielt unterdrücken. Auch an künstlichen Skeletten, die dem Anwender enorme Kräfte verleihen sollen, werde gearbeitet. Diese Entwicklungen gebe es, auch wenn sie "eher übermorgen als morgen" Realität würden.

All das sorgt international für Aufsehen und große Sorge. Im Jahr 2015 haben rund 30.000 Wissenschaftler, darunter auch 3000 Forscher im Bereich künstliche Intelligenz, einen Aufruf zur Ächtung vollautomatischer Angriffswaffen unterzeichnet. Viele fürchten, dass die Hemmschwelle für neue Kriege sinkt, wenn man keine eigenen Verluste mehr riskieren muss: "Die Aussicht auf eigene Verluste an Menschenleben ist eine der größten Hürden in westlichen Gesellschaften, wenn es um die Beteiligung an Kriegen geht", sagt Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung (HSFK).

Für ihn ist die entscheidende Frage, ob technische Systeme, ob letztlich Computeralgorythmen sich selbst aussuchen dürfen, gegen wen sie tödliche Gewalt ausüben, ohne dass ein Mensch noch Kontrolle darüber hat. "Prinzipiell sind Systeme vorstellbar, die auf der Basis von Gesichtserkennung oder einem Freund-Feind-Sender auf dem Schlachtfeld Menschen töten, die nicht in ihr Raster fallen", erklärt der Friedensforscher und Kenner der Materie der "Wiener Zeitung".

Daraus ergäben sich freilich schwer wiegende ethische und rechtliche Probleme: "Wenn ein Roboter Kriegsverbrechen begeht, wer trägt dann eigentlich die Schuld daran? Ist der Täter der Programmierer? Ist es der Offizier, der die Maschine losgeschickt hat? Den Roboter selbst wird man ja wahrscheinlich nicht verantwortlich machen und ins Gefängnis stecken können", erörtert Schörnig mögliche Problemlager einer gar nicht so fernen Zukunft.

Aber kann man die Entwicklung zum Roboter am Schlachtfeld überhaupt aufhalten? Schwierig wird es in jedem Fall. Zwar gibt es seit 2014 auf UN-Ebene informelle Treffen, und ab November wird es eine offizielle Expertengruppe geben. Ein großer Wurf ist dabei vorerst jedoch nicht zu erwarten: "Ich glaube zwar, dass es am Ende ein Protokoll geben wird. Wahrscheinlich wird es aber ein ziemlich weichgespültes sein", verweist Anja Dahlmann auf den Umstand, dass die großen Rüstungsmächte wenig Interesse daran haben, die Forschung auf diesem Gebiet einzuschränken.

Weniger Vertrauen
als im Kalten Krieg

Das Problem hat auch einen simplen Grund: Mangelndes Vertrauen. "Zur Zeit des Kalten Krieges konnte man sich noch gegenseitig einladen und die Panzer und Raketensilos überprüfen. Da war eine gewisse Verlässlichkeit da", sagt Schörnig. "Heute ist das komplizierter. Sie werden einer Drohne in zehn Jahren nicht ansehen, ob sie gesteuert wird oder autonom agiert. Sie können nicht in die Software hineinsehen - man sieht sie nicht", erklärt der Friedensforscher. Man müsse sich kreative Lösungen überlegen, wie auch unter diesen erschwerten Bedingungen das nötige Vertrauen für einen Bann der problematischen Technologie aufgebaut werden kann. Das wird freilich schwer: "Denn auch wenn sich 99 Prozent an ein Abkommen halten - sollte es einen Ausreißer geben, so hat der einen möglicherweise entscheidenden Vorteil auf dem Schlachtfeld", meint Schörnig.