Zum Hauptinhalt springen

Maschinen im moralischen Dilemma

Von Eva Stanzl

Wissen
Wem versucht das selbstfahrende Auto eher auszuweichen - Älteren oder Kindern, Tier oder Mensch? Fotolia

Ein Kind überfahren oder das Lenkrad verreißen und die Insassen töten: Autos sollen wie Menschen handeln lernen.


Die Weichen sind gestellt: Wer Auto fahren will, sitzt irgendwann nicht mehr hinterm Lenkrad, sondern wird vom Wagen chauffiert. Das Fahrzeug achtet selbst aufs Tempolimit, hält die Sicherheitsabstände ein, bremst immer rechtzeitig ab. Allein in Österreich verursachen Menschen knapp 40.000 Straßenverkehrsunfälle pro Jahr - bei autonomen Fahrzeugen liegt die Crash-Gefahr bei nahezu null.

Das "nahezu" ist entscheidend. Denn wie so oft definieren auch hier Extremsituationen die Qualität. Was soll ein selbstfahrendes Auto tun, wenn aus heiterem Himmel ein Kind über die Straße läuft? Soll es das Lenkrad verreißen - und dabei gegen eine Wand fahren, was zwar das Kind retten, aber die Insassen töten würde?

Autokonzerne investieren Millionen, um ihre selbstfahrenden Modelle möglichst bald auf die Straße zu bringen. Weltkonzerne wie Google und Amazon entwickeln künstliche Intelligenzen für jeden Lebensbereich. Die EU investiert im Rahmen des teuersten zivilen Förderprogramms, Sparc genannt, bis 2020 rund 700 Millionen Euro in die Entwicklung von Robotern, die Privatindustrie soll das Dreifache beisteuern. Doch was genau Roboter können sollen und ob es ethische Grenzen für ihr Handeln geben muss, dazu gibt es keine Regeln. Niemand weiß, wie einem Computer so viel moralisches Verständnis beigebracht werden kann, dass er in Konfliktsituationen das Richtige tut.

Maschinen können keine ethisch fundierten Überlegungen auf der Basis von Empfindungen, Werten und Intuition anstellen. Sie haben kein mentales Spektrum, das durch bewusste und unbewusste Erfahrungen geprägt ist, und können kein Umfeld beurteilen, das unzählige Unvorhersehbarkeiten und Variablen kennt. Roboter all dies zu lehren, sagen Neurowissenschafter und Informatiker gleichermaßen, sei, als wolle man die Unendlichkeit programmieren.

Stimmt nicht, finden Kognitionsforscher der deutschen Uni Osnabrück: Wenn Leben von einem Moment auf den anderen auf dem Spiel steht, dann handeln wir simpler, als wir vielleicht gerne wahr hätten. Und wir folgen einer Geradlinigkeit, die sich so wie die Prinzipien der Evolution in einigen wenigen Sätzen auf den Punkt bringen lassen. Ein Algorithmus, der diesen Prinzipien folgt, ließe sich durchaus in Computer, Roboter und Autos implementieren. Dann würde Maschinen Entscheidungen treffen nach einer Ethik wie der Mensch. "Da die Technik heute mit uns lebt, wollen wir keine Gedankenexperimente anstellen, sondern die Praxis nachvollziehen, um so etwas wie eine Philosophie der Technik zu entwickeln", erläutert Gordon Pipa, Professor für Neuroinformatik am Osnabrücker Institut für Kognitionswissenschaften.

Ein philosophisches Gedankenexperiment ist das "Trolley-Problem": Ein Güterzug droht wegen falscher Weichenstellung auf einen vollbesetzten Personenzug aufzufahren. Ein Weichensteller erkennt die Gefahr und leitet den Güterzug auf ein Nebengeleis um, wodurch eine Gruppe von Gleisarbeitern zu Tode kommt. Wie ist die Strafbarkeit des Weichenstellers zu beurteilen? "Die philosophische Diskussion zeigt, dass Menschen versuchen, den größtmöglichen Schaden zu vermeiden", erklärt Pipa.

Doch nach welchen Kriterien gehen wir dabei vor? Dieser Frage gingen er und seine Kollegen nach. Sie versetzten 160 Probanden mittels Datenbrillen in eine realitätsnahe computergenerierte virtuelle Welt, in der sie ein Auto lenken mussten. In diesem virtuellen Raum stellten die Forscher ihre Probanden vor Extremsituationen, in denen sie in Sekundenbruchteilen entscheiden mussten - in dem Bewusstsein, dass jeder Schritt Schaden anrichtet. Zu den Parametern zählten Mann, Frau, Bub, Mädchen, Tiere und Objekte, Nacht und Nebel, Stadtzentren und Randbezirke, Landstraßen und Autobahnen, technische Störungen und defekte Bremsen.

Die Entscheidungen waren klar. "Aus der Statistik, die wir aus den Antworten erstellt haben, ließ sich ablesen, dass die meisten Probanden in Sekundenentscheidungen sehr wohl Leben gegen Leben abwägen", erklärt Pipa: "Intuitiv wird das Kind meistes geschützt im Verhältnis zum Erwachsenen, Menschen im Verhältnis zu Tieren und Tiere im Verhältnis zu Objekten."

Als Nächstes beschrieben die Neuroinformatiker diese Verhältnisse im Computermodell. Das Ergebnis war ein Algorithmus, der prognostiziert, wie ein Mensch in einer Situation entscheidet. "In über 90 Prozent konnte das Programm vorhersagen, was die Menschen im Experiment taten. Bisher wurde aber vorausgesetzt, dass wir dabei so komplexe Abwägungen machen, dass ein Computer die Faktoren nicht erlernen kann. Das scheint nicht der Fall zu sein. Die Daten zeigen, dass es eine Hierarchie gibt, die durch die Wertigkeit des Lebens definiert ist", fasst Pipa zusammen.

"Die Würde des Lebens ist unantastbar", heißt es in Artikel 1 des Grundgesetzes der Bundesrepublik Deutschland. Österreich hat keinen Grundrechtskatalog, es gilt Paragraf 16 des Allgemeinen Bürgerlichen Gesetzbuches aus dem Jahr 1811: "Jeder Mensch hat angeborene, schon durch die Vernunft einleuchtende Rechte und ist daher als eine Person zu betrachten." Leben ist laut Gesetz nicht abwägbar. Allerdings sieht der Mensch das anders. Für Autobauer wäre somit das ethisch handelnde Auto erstmals möglich. Pipa sieht durchaus Chancen, dass das Programm implementiert werden könnte - "wenn man genug Variablen programmiert".

Was wäre die Konsequenz? Vermutlich eine ziemlich grimmige Welt, ist Susanne Beck überzeugt. Die Professorin für Strafrecht und Rechtsphilosophie der Universität Hannover warnt vor gruseligen Szenarien. "Wenn ein Auto über die Gesichtserkennung in der Sekunde weiß, um wen es sich handelt - ein Kind, einen Pensionisten, einen Professor, der kurz davor steht, einen Nobelpreis zu bekommen, oder einen Maurer, einen Schwarzen, Weißen oder Chinesen -, dann ist das Prinzip nicht mehr nur Leben gegen Leben, sondern dann bemessen wir Qualität von Leben." Würde man alle Probanden fragen, ob sie in so einer Welt leben wollen, wäre die Antwort wohl: Nein.

"Frauen und Kinder zuerst" ist auch die Devise bei Schiffsunglücken. Die Kleinsten und Wehrlosesten als Erste retten zu wollen, gilt als zutiefst menschlich. Aber würden wir alle unterschreiben, dass diese Impulse ethisch begründet sind? Vermutlich nicht. Beck hält die Untersuchung für "gewagt", wie sie es formuliert: "Sie beruht auf bestimmten Prämissen, was Ethik ist. Man muss jedoch hinterfragen, ob ein situatives Urteil mit moralischen Regeln gleichzusetzen ist." Eine empirische Sammlung spontaner Entscheidungen von Menschen, die in Schwarzweiß-Situationen gebracht werden, könne nicht "jahrtausendealte ethische Diskussionen aushebeln", die viele Grautöne kennt. Viele Handlungen im Affekt würden anders ablaufen, hätte man Zeit, darüber nachzudenken.

Das Reflektieren darüber, warum wir bestimmte Intuitionen haben, ob diese angemessen sind, was sie für Konsequenzen haben und ob es Prinzipien gibt, die dem entgegenstehen, unterscheidet Mensch von Maschine. In diesem Sinne können Maschinen eben doch nicht moralisch handeln.

Denn moralisch zu handeln heißt nicht, einprogrammierte Regeln zu befolgen, sondern sich selbst entscheiden zu müssen und die Regeln selbst zu erarbeiten. "Selbst wenn wir Maschinen eingeben könnten, in jeder Situation dieselben Entscheidungen zu treffen wie der Mensch, wäre das keine moralische, sondern eine nachgemachte Entscheidung", so Beck. Als würde man einen Hund trainieren, immer das Kind zu retten.

Der Philosoph Julian Nida-Rümelin trug jüngst bei der Jahrestagung des Deutschen Ethikrats vor, warum autonome Systeme keine Verantwortung übernehmen könnten. Der Verantwortungsbegriff ist demnach an Intentionalität und Persönlichkeit gekoppelt - Fähigkeiten, die so alleine Menschen zukämen. Schon allein wegen ihrer vielfältigen Einsatzgebiete müssen Maschinen aber trotzdem Entscheidungen treffen. "Wir müssen ein eigenes System für Maschinen entwickeln", sagt Beck: "Die Maschine wird nämlich immer anders entscheiden als der Mensch - sie hält sich eben an Tempolimits. Wir müssen daher als Gesellschaft diskutieren, was wir wollen, dass die Maschine entscheidet." Das hängt von der Welt ab, in der wir leben wollen. Und ob wir wollen, dass die Würde des Menschen unantastbar bleibt.