Zum Hauptinhalt springen

"Roboter werden künftig autonom entscheiden, wen sie erschießen"

Von Michael Schmölzer aus Großbritannien

Politik

Der Forscher Alexander Lenz erklärt seine Skepsis gegenüber Blechsoldaten.


Im "Bristol Robotics Laboratoy" arbeiten 50 Wissenschafter an der Zukunft der Roboter-Technologie. Geforscht wird an Flug-Robotern und Robotern, die tote Fliegen "verdauen" und in Strom umwandeln können. Alexander Lenz beschäftigt sich damit, wie Maschinen künftig mit Menschen interagieren. Die "Wiener Zeitung" hat ihn gefragt, was Kampfroboter gefährlich macht.

"Wiener Zeitung":Maschinen, die wie Menschen agieren, die ihrem "Meister" aus Fleisch und Blut als Assistenten zur Hand gehen - das ist doch ein uralter Menschheitstraum, ich denke da an die Golem-Sage aus dem 16. Jahrhundert: ein Koloss aus Lehm, die erst lebendig und dann seinem Meister Rabbi Löw zum Verhängnis wird. Wie realistisch ist das alles wirklich, ist das nicht nur ein Wunschtraum? Geht die Zukunft der Roboter-Technologie wirklich in diese Richtung?Alexander Lenz: Ich glaube schon, dass es in diese Richtung geht, man kann das auch sehen. Wenn man vergleicht, wie Roboter in der Industrie vor 20 Jahren eingesetzt wurden und wie heute, dann hat man heute schon viel mehr Interaktion zwischen Maschine und Mensch. Da arbeitet der Roboter mit dem Menschen zusammen - nicht in der reinen Form, wie wir das hier probieren - aber Dinge werden schon kooperativ gelöst.

Wann ist es so weit, dass Roboter, die eigenständig handeln und menschlich aussehen, in unserer Welt in großer Menge herumlaufen?

Wenn wir Roboter bauen wollten, die das Klo putzen, dann könnten wir das in fünf Jahren schaffen. Aber das wäre eine reine Prestige-Sache, das rentiert sich nicht, solange Menschen das billiger machen.

Wenn Roboter mit dem Menschen kooperieren: Ist da nicht das grundlegende Problem, dass das menschliche Verhalten zu komplex ist und zu wenig vorhersehbar für eine Maschine, sodass das Zusammenwirken schiefgehen muss?

Ich stimme Ihnen zu: Man sollte gar nicht versuchen, Menschen zu kopieren, wir setzen da auf einem viel zu hohen Niveau an. Wenn wir eine Fruchtfliege mit 100.000 bis 120.000 Neuronen nachbauen könnten, dann wären wir schon sehr weit. So weit sind wir noch nicht, wir wissen nicht, wie so ein Ding fliegt. Bei den humanoiden Robotern versucht man nicht, den Menschen nachzubauen. Man versucht, gewisse Funktionalitäten, die zur Erledigung von Aufgaben nötig sind, in mehr oder weniger biologisch inspirierter Form zu implementieren. Neurobiologen schauen aber schon, wie eine Nervenzelle in einer Ratte funktioniert, und dann versucht man, das nachzubauen. Die Herausforderung ist: Wenn die Biologen das richtig beschreiben, dann müsse man es bauen können. Wenn wir es nicht bauen können, dann fehlt ein Stück der Beschreibung. Das ist ein "existance-prove". Da geht es darum, die Natur zu verstehen. Ich forsche auch, um das Leben zu verstehen.

Hier im "Bristol Robotics Laboratory" wird auch an Robotern geforscht, die Fliegen oder Obst "verdauen" und aus organischen Substanzen Strom gewinnen. Laufen dann bald Roboter herum, die essen wie wir?

Die Energie, die wird da gewinnen, ist sehr gering. Das ist grundlagenorientierte Forschung.

Es soll schon Roboter geben, die Verwundete auf dem Schlachtfeld aufspüren und ins Lazarett tragen. Wie realistisch ist der Blechsoldat, der im Feld Seite an Seite mit Kameraden aus Fleisch und Blut kämpft?

Die Kollegen von Samsung bauen einen Roboter, der an der Grenze zwischen Nord- und Südkorea patrouilliert, mit Wärmebildkameras und auf Ketten, den man auch mit Gewehren ausrüsten kann. Und es wäre möglich, dass er autonom entscheidet, wer hier zu erschießen ist. Das könnte man bauen - das haben die fast schon gebaut. Und das amerikanische Militär macht viel Lobby-Arbeit, damit in diesem Bereich investiert wird. Ich bin kein Freund davon. Es gibt in der Robotics Community eine Gruppe um Noel Sharkey (britischer Professor für künstliche Intelligenz, Anm.), der macht viel im Bereich "Robot
Ethics". Er setzt sich stark für einen Bann von Robotern im Militär ein. Er sagt, es ist unethisch, weil man hier grundsätzlich niemandem die Schuld zuweisen kann. Der Roboter handelt ja autonom.

Schuld ist doch, wer den Roboter in Dienst stellt und programmiert.

Da gibt es wie überall die Falken, die sagen, wir müssen die Roboter so bauen, dass sie die international gültigen Regeln auf dem Schlachtfeld nicht brechen. Menschen machen ja Fehler. Die Falken sagen: Menschen töten und vergewaltigen Zivilisten aus Wut oder Rachsucht oder weil sie vom Krieg geschädigt sind. Roboter nicht, die gehen an die Sache emotionslos heran. Letztendlich geht es aber darum, den Schaden an den eigenen Leuten gering zu halten. Deswegen haben wir ja auch Panzer gebaut.

Es gibt ja schon Drohnen. Wie weit ist die Technologie hier?

Die fliegen schon fast selbst, die werden im engeren Sinn nicht mehr geflogen. Ein Pilot in einem zivilen Jet fliegt ja auch nicht selbst. Die Entscheidung, ob ich eine Rakete abfeuere, trifft aber ein Mensch. Im Moment noch. Da ist die Schuldfrage einfach zu klären, da ist der Mensch verantwortlich.

Ja, aber auch wenn der Roboter selbst entscheidet, wann und wen er erschießt: Im Endeffekt steht doch ein Mensch dahinter, der das so gewollt hat und der ist verantwortlich.

Das ist ja kein Programm, das abläuft wie bei einem Industrieroboter. Das ist eine hochkomplexe Umgebung. Da ist nicht zu jedem Zeitpunkt ganz klar definiert, was jetzt gemacht wird. Das sind faktisch interagierende Regelungsschleifen, die messen und interagieren und agieren und die Bewegung des Systems verursacht wieder neue sensorische Eindrücke. Und dann ist man in einem Bereich, in dem man die Software gar nicht mehr testen kann. Man hat einen Zustands-Raum, der unendlich groß ist. Es gibt keine drei Eingangsparameter. Ich kann nicht sagen: "Ich probier jetzt alle möglichen Kombinationen aus, und wenn der Ausgang so ist, wie ich das will, dann ist ja alles
klar." So ist das nicht, wenn ich so komplexe Systeme habe. Dass dann eine Schulkinder-Gruppe als Soldaten-Gruppe missinterpretiert wird, das wäre vorstellbar. Den Fehler machen ja auch Menschen. Aber dann kann man sagen, du hast nicht genau hingeschaut. Aber ich kann nicht zu den Entwicklern der Roboter zurückgehen und mich beschweren. Die sagen, wir haben unser Bestes gegeben aber ihr Militärs setzt das Gerät ein und wir haben euch von vorneherein gesagt, wir haben nur eine 99-prozentige Genauigkeit. Und der Offizier muss halt mit dem einen Prozent leben.

Ichhabe gerade ganz schlimme Gedanken über Folter-Roboter, das ginge dann ja auch. Das wäre die genannte Maschine-Mensch-Interaktion ganz ins Brutale gekehrt.

Ein ganz schlimmer Gedanke, wo der Mensch um Gnade fleht und der Roboter gar nichts versteht und immer weitermacht. Ganz schlimm.

Zur Person



Alexander Lenz

Der Mikroelektroniker studierte an der Universität Trier und der University of the West of England. Er hat zwei Jahre für Siemens gearbeitet, jetzt forscht er in England am Bristol Robotics Laboratoy.