Pädagoge Christian Kienesberger. - © Simon Rainsborough
Pädagoge Christian Kienesberger. - © Simon Rainsborough

Wien. (est) Roboter können zunehmend mehr Aufgaben nicht nur erledigen, sondern auch erlernen, wie sie zu tun sind. Künstliche Intelligenz macht es möglich: Algorithmen sammeln Fakten und fügen diese zu einer Art Wissen zusammen, sodass Computer nach einer Weile nicht nur Wörter kennen, sondern auch Sätze bilden, Roboter nicht nur Rasen mähen, sondern auch wissen, wie der Garten angelegt ist, Maschinen nicht nur Autos zusammenschrauben, sondern diese auch lenken. Während die Roboter in der Praxis noch etwas tölpelhaft über Kabeln stolpern, kann manche Zukunftsvision durchaus beunruhigen.

Google etwa plant einen Supercomputer, eine künstliche Superintelligenz, von dem man nur hoffen kann, dass dieser keine absichtsvoll böse Persönlichkeit entwickelt wie HAL 9000: Im Film "2001: Odyssee im Weltraum" killt der Bordcomputer die Crew. In Willemijn Dickes Science Fiction Roman "iGod" überwacht wiederum eine künstliche Intelligenz alle Menschen bis ins kleinste Detail, weil sie alles über diese weiß.

Der Test in freier Wildbahn

Altersforscher Matei Capatu. - © Simon Rainsborough
Altersforscher Matei Capatu. - © Simon Rainsborough

In wie weiter Ferne ist der selbstlernende Algorithmus in Roboter-Form tatsächlich? Wie viel ist dabei Fantasie und was ist technisch wirklich möglich? Und welchen Nutzen müssen intelligente Maschinen für uns Menschen haben, damit wir auch negative Konsequenzen in Kauf nehmen würden? Solchen Fragen gingen Experten bei einer Diskussion der Kooperationsreihe "Future Ethics" von "Wiener Zeitung" und Diakonie Österreich am Dienstagabend zum Thema "Heiligt der Zweck die Roboter?" nach.

"Roboter, die es heute zu kaufen gibt, können tatsächlich nur tun, worauf sie programmiert sind", stellte Janina Loh, Universitätsassistentin im Bereich Technik- und Medienphilosophie an der Uni Wien, klar. Sie könnten nicht dazulernen, sondern seien einfach geschaltet, damit sie etwa beim Rasenmähen den Haustieren ausweichen. "In Entwicklung befinden sich selbstlernende Roboter - wie etwa selbstfahrende Autos. Solche Systeme müssen so lange geprüft werden, bis sie das richtige gelernt haben. "Ob wir beim Lernprozess Fehler zulassen wollen, bei denen Menschen zu Schaden kommen, ist eine Frage unserer Welt, in der manche das Ziel verfolgen, eine künstliche Superintelligenz zu schaffen", sagte Loh.

Philosophin Janina Loh. - © Simon Rainsborough
Philosophin Janina Loh. - © Simon Rainsborough

Je mehr Dinge Maschinen erlernen, desto stärker entziehen sie sich der Kontrolle. Die Folgen sind nicht absehbar. "Wer Kinder erzieht, weiß, dass man sich noch so viel Mühe geben kann, ihnen die richtigen Werte mitzugeben. Sie können trotzdem zu Arschlöchern werden", brachte die Philosophin auf den Punkt. "Das Unverfügbare, das sich der Kontrolle entzieht, ist ein wunderbarer Zug im menschlichen Wesen. Je menschenähnlicher Maschinen werden, desto unverfügbar werden sie."