Zum Hauptinhalt springen

Herzensangelegenheit Roboter

Von Eva Stanzl

Wissen
Die Informatikerin Andrea L. Thomaz lehrt den Roboter "Curi" soziale Kompetenzen, etwa über gemeinsames Kochen.
© Georgia Institute of Technology

Menschen haben Mitgefühl für Roboter - aber diese nicht für uns. Welche Konsequenzen hat das?


Hinweis: Der Inhalt dieser Seite wurde vor 8 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.

Wer ist klüger, die Maschine oder der Mensch? Im britischen Science-
Fiction-Film "Ex Machina" gewinnt die Maschine den Intelligenztest. Ava, ein Roboter mit dem Gesicht einer jungen Frau, entgeht ihrer eigenen Zerstörung, die ihr drohen würde, sobald ihr Nachfolgemodell fertig wäre, mit einer durchtriebenen Strategie. Sie manipuliert und belügt genau jenen Menschen, der ihr helfen will. Der Mann bleibt am Ende gefangen zurück, Ava befreit sich und entwischt. Empathie für ihren Helfer empfindet sie nicht. Ihn aber kosten seine Gefühle für sie die Freiheit.

Roboter haben kein moralisches Empfinden und kein Gewissen. Von Mitgefühl sind sie befreit. Das erleichtert vieles, vor allem Entscheidungen. Ein Roboter kennt keine Dilemmata - ein nützlicher Zug für eiskalte Machtergreifung. Stoff für einen weiteren Film? Nicht nur. Manche Forscher sind der Ansicht, dass auch in Wirklichkeit Maschinen der Menschheit den Rang ablaufen könnten. Sie arbeiten, Computer mit den Tricks des menschlichen Gehirns die Welt begreifen zu lassen. "Deep Learning" nennt sich die Kunst, die Wirklichkeit mathematisch in zunehmend feinere Scheiben zu schneiden. Unsere Wahrnehmung der Realität wollen sie in Algorithmen abbilden, die der Computer nutzt. "Wir kommen in das Zeitalter echter kognitiver Systeme, die nicht nur Schach spielen", meint Dirk Knapp, Chef des deutschen Technologiekonzerns IBM.

Fähigkeit zu Beziehungen

Bis vor zehn Jahren hatten manche Pioniere der künstlichen Intelligenz daran festgehalten, dass Maschinen eher simpel bleiben würden. Nachdem 1997 der IBM-Supercomputer "Deep Blue" medial spaktakulär Schachweltmeister Garry Kasparow besiegt hatte, ging wenig weiter. Der Computer war Champion im schwierigsten Brettspiel, aber 99,99 Prozent des Lebens blieben für ihn ein Rätsel. Wesentliche Bestandteile der Intelligenz, wie Gefühle, Überraschungen, Gerüche, Anblicke, Beziehungen oder die Fähigkeit, den Überblick zu bewahren und blitzartig Entscheidungen zu treffen, würden Maschinen nie verstehen, prognostizierte Marvin Minsky vom Massachusetts Institute of Technology 2003. Es sei schwierig genug, einem Rasenmäher-Roboter beizubringen, nicht in den zu Graben fallen.

Eine neue Forscher-Generation verzichtet zunehmend darauf, Computern ihr Wissen fix einzuprogrammieren. Sie entwirft Methoden, die es der künstlichen Intelligenz erlauben, aktiv zu lernen, sich an Gelerntes zu erinnern und es in neuen Situationen anzuwenden. Das menschliche Gehirn dient als Vorlage. Vereinfacht erklärt: Der Mensch erkennt etwa Bilder, die auf die Netzhaut fallen, in zahlreichen, aufbauenden Verarbeitungsstufen. Diese Schritte bilden Informatiker nach, sodass die Künstliche Intelligenz Pixel zum Objekt zusammensetzt. Die Beziehung der Objekte zu einander geben dem Bild seine Bedeutung und mehrere Bilder in Relation zu einander schließlich dem Bild Bedeutung im größeren Kontext. Mit Methoden wie dieser wollen Forscher Robotern beibringen, Objekte im Raum zu erkennen. Künstliche Intelligenzen sollen Geschichten auf Bildern verstehen, aus Erfahrungen lernen und das Gelernte in einem gesellschaftlichen Umfeld verankern können. Das ist die Vision.

Für den Anfang lehren US-Wissenschafter des Georgia Institute of Technology ihren humanoiden Roboter "Curi", im Wechselspiel mit einem menschlichen Gegenüber Essen zuzubereiten. Die Forscher wollen Sozialkompetenz schaffen - bis hin zum Ersatz für Freunde und Familie. Und in Japan, wo angenommen wird, dass nicht nur jedes Lebewesen, sondern auch jeder Gegenstand eine Seele hat, will man humanoid aussehenden Robotern sogar Eltern und Großeltern anvertrauen. Bevor sie sie allerdings pflegebedürftigen Menschen zur Seite stellen, wollte die Regierung in Tokio überprüfen, ob die Blechtrotteln überhaupt ankommen. Mit Förderungen des Bildungsminsteriums wurde untersucht, ob und wie viel Empathie der Mensch für den Roboter hat.

Die Vermutung, dass wir sogar mit Maschinen mitleiden können, ließ spätestens die Berichterstattung zu "Rosetta" aufkommen. Im Rahmen der europäischen Mission war am 12. November 2014 ein Forschungsroboter auf einem Kometen gelandet. Ungeplant fiel der Lander "Philae" jedoch in einen schattigen Graben auf der Oberfläche. Seine Solarpanele bekamen kein Futter mehr, und er begab sich - mutterseelenallein, im Dunklen und fern von der Welt - in den "Winterschlaf". Sätze wie "Kein Lebenszeichen von "Philae", "Alleine im All" und "Philae might be phoning home next week" in sozialen, digitalen und analogen Medien machten den Lander zur Herzensangelegenheit einer Fangemeinde von Weltraumbegeisterten. Dabei hat die Kiste mit den drei Beinen nicht einmal ein Gesicht.

Suchanfragen als Zweck

"Menschen können auch für Roboter Mitgefühl empfinden", bestätigen Wissenschafter der Toyohashi University of Technology in einer heute, Mittwoch, im US-Fachjournal "Scientific Reports" erschienenen Studie. Die Psychologen und Ingenieure suchten nach neurophysiologischen Beweisen für Reaktionen des menschlichen Gehirns auf den Roboter in Situationen, die typischerweise Empathie auslösen. Zur Messung der Gehirnströme schlossen sie 15 Erwachsene an ein EEG (Elektroenzephalographie) an. Die Testpersonen bekamen Bilder von Menschen- und Roboterhänden zu sehen, denen Schnitte zugefügt wurden.

Das Mitgefühl, das die Probanden dabei empfanden, war bei beiden ähnlich, aber bei den Maschinen weniger stark ausgeprägt. "Das könnte daran liegen, dass sich der Mensch zwar in andere Menschen, aber nicht in Roboter hineinversetzen kann", so die Forscher: "Immerhin sind Körper und Geist, so sie so etwas haben, bei Robotern anders als bei uns." Genau hier liegt der Knackpunkt: Einmal programmiert, wägen Computer nicht ab.

In einer Ausgabe des Magazins "Geo" beschreibt der Buchautor Christian Schwägerl die Möglichkeiten, die die Digitalisierung der Künstlichen Intelligenz eröffnet hat. Dazu befragt, wozu es Google gibt, antwortete demnach Mitbegründer Larry Page kurz nach der Firmengründung: "Weißt du, in Wahrheit entwickeln wir künstliche Intelligenz."

Milliarden von Suchanfragen jeden Tag dienen dem Konzern zum Zweck: Aus ihnen lernt die Software. Und zwar nicht nur, ob sich eine Epidemie aufbaut oder blassblaue Kunstfell-Jacken im Winter der Renner sein werden. Sondern jede Anfrage, jedes Foto, das wir ins Internet stellen, jeder Facebook-Like und jeder Tweet hilft dem System, sein Welt- und Menschenbild aufzubauen. "Damit das Lernen von allein geschieht, statten wir unsere Algorithmen mit einem internen Belohnungssystem aus", sagt Alex Graves, Forscher bei Deep Mind, einem zu Google gehörenden Unternehmen, das sich der "Lösung des Problems der Intelligenz" verschrieben hat. Die Belohnung für jede Entscheidung, die sich als richtig erweist, ist ein Code, der das Wissen einer künstlichen Intelligenz vermehrt - die im Besitz einer Privatfirma ist.

Markus Vincze jagt das keine Angst ein. Der Professor für Automation an der Technischen Universität Wien bringt einem kistenartigen, einarmigen Roboter mit Kopf bei, Dinge im Haushalt zu erledigen. "James" schlägt sich ganz gut. "Er kann Dinge finden und vom Boden aufheben, zwar nicht immer, aber immer öfter", erzählt Vincze über sein Forschungsprojekt "Hobbit": "Das Interessante ist, dass ältere Leute, für die James konstruiert wurde, ihn bei einem Test über Touchscreen sehr gut bedienen konnten und dass sie ihn mochten. Personal, etwa im Krankenhaus, kann er aber keineswegs ersetzen."

Für Markus Vincze ist es ein "Riesenerfolg", wenn der Haushaltsroboter einen Teller aus der Küche bringt. "Ein paar Dinge, die wir seit zehn, 20 Jahren probieren, kommen ins Laufen. Ich bin aber skeptisch, ob wir alle Hoffnungen, die wir in die Robotik setzen, technisch erfüllen können. Dazu sind Roboter zu tollpatschig", sagt er. Der Informatiker sieht Verbesserungen bei Methodik, Rechnerleistung, Kameras und technischen Einzelteilen. Aber von einer robotisierten Wirklichkeit sei die Welt noch weit entfernt. "Künstliche Intelligenzen lernen selbst, aber der Kontext muss genau vorgegeben werden. Sie lernen nicht wie ein Kind, das begreift, worauf seine Aufmerksamkeit fällt", erklärt er.

Einen vorgegebenen Kontext für Lernen stellen die Navigation selbstfahrender Autos dar, sowie Tätigkeiten der Industriefertigung. Doch selbst, wenn es nur hierbei bleibt, müssen wir uns auf eine veränderte Welt einstellen. Im Jänner veröffentlichte das Life Insitute in Boston einen "offenen Brief" mit "dringenden Fragen". Etwa, wer haftet, wenn Maschinen im Straßenverkehr einen Unfall verursachen, oder wie viele Jobs durch eine weitere Automatisierung der Indsitrieproduktion verloren gehen. Zu den Unterzeichnern zählen auffallend viele Mitarbeiter von Google und Deep Mind.