Im "Bristol Robotics Laboratoy" arbeiten 50 Wissenschafter an der Zukunft der Roboter-Technologie. Geforscht wird an Flug-Robotern und Robotern, die tote Fliegen "verdauen" und in Strom umwandeln können. Alexander Lenz beschäftigt sich damit, wie Maschinen künftig mit Menschen interagieren. Die "Wiener Zeitung" hat ihn gefragt, was Kampfroboter gefährlich macht.

"Wiener Zeitung":Maschinen, die wie Menschen agieren, die ihrem "Meister" aus Fleisch und Blut als Assistenten zur Hand gehen - das ist doch ein uralter Menschheitstraum, ich denke da an die Golem-Sage aus dem 16. Jahrhundert: ein Koloss aus Lehm, die erst lebendig und dann seinem Meister Rabbi Löw zum Verhängnis wird. Wie realistisch ist das alles wirklich, ist das nicht nur ein Wunschtraum? Geht die Zukunft der Roboter-Technologie wirklich in diese Richtung?

Alexander Lenz: Ich glaube schon, dass es in diese Richtung geht, man kann das auch sehen. Wenn man vergleicht, wie Roboter in der Industrie vor 20 Jahren eingesetzt wurden und wie heute, dann hat man heute schon viel mehr Interaktion zwischen Maschine und Mensch. Da arbeitet der Roboter mit dem Menschen zusammen - nicht in der reinen Form, wie wir das hier probieren - aber Dinge werden schon kooperativ gelöst.

Wann ist es so weit, dass Roboter, die eigenständig handeln und menschlich aussehen, in unserer Welt in großer Menge herumlaufen?

Wenn wir Roboter bauen wollten, die das Klo putzen, dann könnten wir das in fünf Jahren schaffen. Aber das wäre eine reine Prestige-Sache, das rentiert sich nicht, solange Menschen das billiger machen.

Wenn Roboter mit dem Menschen kooperieren: Ist da nicht das grundlegende Problem, dass das menschliche Verhalten zu komplex ist und zu wenig vorhersehbar für eine Maschine, sodass das Zusammenwirken schiefgehen muss?

Ich stimme Ihnen zu: Man sollte gar nicht versuchen, Menschen zu kopieren, wir setzen da auf einem viel zu hohen Niveau an. Wenn wir eine Fruchtfliege mit 100.000 bis 120.000 Neuronen nachbauen könnten, dann wären wir schon sehr weit. So weit sind wir noch nicht, wir wissen nicht, wie so ein Ding fliegt. Bei den humanoiden Robotern versucht man nicht, den Menschen nachzubauen. Man versucht, gewisse Funktionalitäten, die zur Erledigung von Aufgaben nötig sind, in mehr oder weniger biologisch inspirierter Form zu implementieren. Neurobiologen schauen aber schon, wie eine Nervenzelle in einer Ratte funktioniert, und dann versucht man, das nachzubauen. Die Herausforderung ist: Wenn die Biologen das richtig beschreiben, dann müsse man es bauen können. Wenn wir es nicht bauen können, dann fehlt ein Stück der Beschreibung. Das ist ein "existance-prove". Da geht es darum, die Natur zu verstehen. Ich forsche auch, um das Leben zu verstehen.

Hier im "Bristol Robotics Laboratory" wird auch an Robotern geforscht, die Fliegen oder Obst "verdauen" und aus organischen Substanzen Strom gewinnen. Laufen dann bald Roboter herum, die essen wie wir?

Die Energie, die wird da gewinnen, ist sehr gering. Das ist grundlagenorientierte Forschung.

Es soll schon Roboter geben, die Verwundete auf dem Schlachtfeld aufspüren und ins Lazarett tragen. Wie realistisch ist der Blechsoldat, der im Feld Seite an Seite mit Kameraden aus Fleisch und Blut kämpft?

Die Kollegen von Samsung bauen einen Roboter, der an der Grenze zwischen Nord- und Südkorea patrouilliert, mit Wärmebildkameras und auf Ketten, den man auch mit Gewehren ausrüsten kann. Und es wäre möglich, dass er autonom entscheidet, wer hier zu erschießen ist. Das könnte man bauen - das haben die fast schon gebaut. Und das amerikanische Militär macht viel Lobby-Arbeit, damit in diesem Bereich investiert wird. Ich bin kein Freund davon. Es gibt in der Robotics Community eine Gruppe um Noel Sharkey (britischer Professor für künstliche Intelligenz, Anm.), der macht viel im Bereich "Robot
Ethics". Er setzt sich stark für einen Bann von Robotern im Militär ein. Er sagt, es ist unethisch, weil man hier grundsätzlich niemandem die Schuld zuweisen kann. Der Roboter handelt ja autonom.

Schuld ist doch, wer den Roboter in Dienst stellt und programmiert.

Da gibt es wie überall die Falken, die sagen, wir müssen die Roboter so bauen, dass sie die international gültigen Regeln auf dem Schlachtfeld nicht brechen. Menschen machen ja Fehler. Die Falken sagen: Menschen töten und vergewaltigen Zivilisten aus Wut oder Rachsucht oder weil sie vom Krieg geschädigt sind. Roboter nicht, die gehen an die Sache emotionslos heran. Letztendlich geht es aber darum, den Schaden an den eigenen Leuten gering zu halten. Deswegen haben wir ja auch Panzer gebaut.

Es gibt ja schon Drohnen. Wie weit ist die Technologie hier?

Die fliegen schon fast selbst, die werden im engeren Sinn nicht mehr geflogen. Ein Pilot in einem zivilen Jet fliegt ja auch nicht selbst. Die Entscheidung, ob ich eine Rakete abfeuere, trifft aber ein Mensch. Im Moment noch. Da ist die Schuldfrage einfach zu klären, da ist der Mensch verantwortlich.