Zum Hauptinhalt springen

Roboter als moralische Instanz

Von Eva Stanzl

Wissen

Martin Walker, Autor, Wirtschaftswissenschafter und Visionär, erklärt, warum Roboter Ethik, Rechte und Mitgefühl benötigen.


"Wiener Zeitung":In Ihrem Buch, "Germany 2064" zeichnen Sie eine utopische Zukunft, in der die Welt in technikgesteuerte Städte und freie Gebiete auf dem Land geteilt ist und ein Kommissar mit seinem Roboter-Assistenten ermittelt. Welche Schlüssel-Technologien haben das Zeug dazu, dass solche Visionen wahr werden?Martin Walker: Das Potenzial der künstlichen Intelligenz (KI) erhöht sich durch drei Entwicklungen. Die Technologie der Graphic Processing Unit wurde für Videospiele entwickelt und ist ein Meilenstein im Bereich der Mustererkennung: Roboter können somit Objekte immer besser identifizieren: Sie wissen, was sie vor sich haben. Big Data wiederum bringt fast unendliche Speicherkapazitäten zum Preis von Peanuts. Und Deep Learning ermöglicht künstlichen Intelligenzen, wie Menschen aus ihren Fehlern zu lernen: Sie können sich Dinge selbst beibringen.

Könnten Roboter zu selbständigen Wesen mit eigenständigen Gedanken heranwachsen?

Das wäre gut möglich und wird in wohl auch so sein müssen. Wenn wir eine echte künstliche Intelligenz mit einer sinnvollen Beziehung zur menschlichen Intelligenz haben wollen, muss sie nicht nur eine Sprache haben, sondern wir müssen auch einen Weg finden, um Robotern ein gewisses ethisches Verständnis zu geben.

Wie soll das gehen?

Ich bin kein Computerwissenschafter, aber ich kann aufzeigen, was die Logik erfordert. Derzeit wissen wir nicht, wie wir ein fahrerloses Auto so programmieren so können, dass es bei komplexen Verkehrsituationen blitzartig das Richtige tut. Das Auto weiß nicht, wohin es ausweichen soll, wenn links Leute aus dem Bus steigen und rechts ein Kind über die Fahrbahn läuft. Wir benötigen also eine künstliche Intelligenz mit Urteilsvermögen. Die Implikationen sind weitreichend. Denn eine solche KI wüsste auch, ob ein Befehl ihres Eigentümers Schaden anrichtet oder nicht. Wenn also ein Terrorist einen Roboter kauft, ihn mit einer Bombe im Rucksack in ein Einkaufszentrum schickt und ihm sagt, dass er dort alles in die Luft sprengen soll, wüsste ein moralisch integerer Roboter, dass das Menschenleben kostet. Und dann müsste er das Recht haben, die Ausführung des Befehls zu verweigern.

Soll ein Roboter seinen Meister klagen können, zum Beispiel auf versuchte Körperverletzung?

Wir müssen Robotern das Recht geben, bei Gericht Einspruch gegen Befehle zu erheben. Und wenn wir Robotern legalen Status geben, sind wir auf dem Weg zu der Auffassung, dass sie menschenähnliche Persönlichkeiten haben. Damit einher gehen auch andere Rechte, wie jenes auf Privatbesitz. Wir müssen uns also entscheiden: Sind Roboter ausschließlich Sklaven? Oder haben sie die Fähigkeit zu eigenständigem Denken? Wenn ja, müssen wir sie als rationale Wesen akzeptieren.

Ein Unterschied erscheint mir wesentlich. Menschen können Empathie für Roboter haben, Roboter haben aber kein Mitgefühl für uns.

Ach wirklich? In Japan wird an Robotern gearbeitet, die lernen, auf alte Menschen zu reagieren. Es handelt sich um Demenz-Patienten und die Arbeit wird kontrovers diskutiert. Die Forscher haben aber bereits erste Erkenntnisse geliefert, dass Roboter Vorlieben für bestimmte Patienten zeigen. Derzeit erscheint eine Menge Literatur über empathische Maschinen, vieles ist Theorie und ich bin skeptisch, ob so etwas bereits existiert. Aber für die Zukunft können wir es keineswegs ausschließen. Und daher müssen wir uns fragen, was Mitgefühl beim Roboter definiert.

Aber wie könnte eine Maschine Mitgefühl erlernen?

Vorstellbar ist, dass wir sie trainieren wie Haustiere. Pferde- oder Hundetrainings funktionieren über Belohnung und Bestrafung. Ich sehe keinen Grund, warum das mit Maschinen nicht genauso gehen sollte - statt Leckerlis gäbe es dann einfach Energiezufuhr. Es sind ja Roboter-Staubsauger schon heute so programmiert, dass sie sich ab weniger als 50 Prozent Ladung melden - wie Handys. Man könnte Roboter sogar darauf programmieren, dass eine bestimmte Person die Energie austeilt. Das ist alles noch Theorie, aber es ist der interessanteste Teil der KI-Forschung.

Wie gerechtfertigt ist die Angst, dass Roboter die Welt übernehmen, sich den Menschen unterjochen könnten?

Fühlende Roboter hätten eine Art Beziehung auf Augenhöhe zu uns und das wäre kein Unterjochen. Mehr Angst habe ich davor, dass wir Menschen die Roboter korrumpieren, bevor ihr Zeitalter so richtig beginnt. Die Amerikaner benutzen Drohnen, um zu töten, erst jüngst hat das Pentagon angekündigt, dass 30 Prozent seiner Streitkräfte robotisch werden sollen. Dieses Ansinnen hat mit Isaacs Asimows (Erfinder des Roboters, Anm.) Gesetz, wonach kein Roboter einen Menschen töten darf, nichts zu tun.

Zur künstlichen Intelligenz zählen auch Systeme, die sich aus Datensammlungen ein Bild der Gesellschaft schaffen. Macht Ihnen die zunehmende Transparenz Angst?

Viele Menschen akzeptieren sie bereits, es ist auch eine Generationenfrage. Die echte Gefahr für den Privatraum sehe ich in der Versicherungsindustrie. Denn sie steht unter Zugzwang: Das fahrerlose Auto wird Milliarden kosten, weil es ja keine Unfälle baut. Im Gesundheitswesen werden dafür Sensoren entwickelt, die im Körper nicht den Gesundheitszustand messen und überwachen, ob wir Fette essen, rauchen oder Coca Cola trinken. Wer bereit ist, einen solchen Sensor zu tragen, zahlt erheblich weniger Prämie. Der Kapitalismus erpresst uns dazu, die Eindringlinge hereinzulassen.

Zur Person

Martin Walker, geboren 1947 in Schottland, ist politischer Journalist und Schriftsteller. Er studierte an der Universität Oxford Geschichte und an der Harvard University Internationale Beziehungen und Wirtschaft. Mit seinem Zukunfsthriller "Germany 2064" stand er auf der Shortlist um den Deutschen Wirtschaftsbuchpreis 2015. Diese Woche referierte Walker auf Einladung der Österreichischen Staatsdruckerei in Wien.