Zum Hauptinhalt springen

Autonomes Fahren und Moral

Von Adrian Lobe

Reflexionen
Ein lenkerloses Taxi sieht sich in Peking mit einer Radfahrerin konfrontiert . . .
© VCG via Getty Images / Qianlong.com / He Luqi

Der Wettlauf um künstliche Intelligenz ist auch ein Systemkonflikt um Werte.


Hinweis: Der Inhalt dieser Seite wurde vor 3 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.

Angenommen, ein fahrerloses Auto fährt auf eine Kreuzung zu. Plötzlich rennt unvermittelt ein Kind über die Straße. Die Abstandssensoren stellen fest, dass ein Bremsvorgang bei dieser Geschwindigkeit zu spät kommt und nur noch ein Ausweichmanöver möglich ist. Was soll der Fahrcomputer in dieser Situation tun? Nach links ausweichen und den Radfahrer rammen? Oder nach rechts ziehen und die Frau mit dem Kinderwagen überfahren?

"Ethik-Bot"

Über diese ethischen Dilemmata beim autonomen Fahren ist in den vergangenen Jahren viel diskutiert und geschrieben worden. Zahlreiche Gremien und Kommissionen haben sich mit dem Trolley-Problem in allen möglichen Varianten befasst. Auch wenn die Szenarien im Einzelfall konstruiert erscheinen und in der Praxis wohl so gut wie nie auftreten werden, müssen diese Fragen angesichts der voranschreitenden Technik entschieden werden. Und zwar schnell.

In China sind schon Robotertaxis unterwegs, und auch auf europäischen Straßen könnten in den nächsten Jahren die ersten autonomen Taxiflotten rollen. Maschinen, so die Meinung von Philosophen und Juristen, müsse eine Moral einprogrammiert werden. Wie diese Moral aussehen und wie sie in Programmcodes gegossen werden soll, ist völlig unklar.

Die Wissenschafter Amitai und Oren Etzioni haben vor einiger Zeit die Einführung eines "Ethik-Bots" vorgeschlagen, eine künstliche Intelligenz, die durch die Erhebung von Verhaltensdaten die moralischen Präferenzen des Fahrers entschlüsseln und damit die Maschine instruieren soll. Wenn der Bot etwa herausfindet, dass die Person recyceltes Papier kauft, ein Hybridfahrzeug fährt und auf Pappbecher verzichtet, würde er daraus ein Umweltbewusstsein ableiten und den Motor an der Kreuzung ausschalten. Oder die Klimaanlage nur bei sehr hohen Temperaturen aktivieren. Die KI soll als eine Art Stellvertreter die Moralvorstellungen des Menschen exekutieren. Das klingt nach einem gangbaren Weg, jedoch wäre Moral in diesem Setting bloß eine Einstellung wie die Temperatur der Klimaanlage. Man könnte sie theoretisch auch abschalten.

Die Autoren Daniel A. Bell und Wang Pei haben in ihrem lesenswerten Buch "Just Hierarchy: Why Social Hierarchies Matter in China and the Rest of the World" (2020) auf einen wichtigen Aspekt aufmerksam gemacht: die kulturelle Dimension. Aus einer konfuzianischen Perspektive stellt sich das Trolley-Problem nämlich ganz anders dar. In der konfuzianischen Ethik komme es viel stärker auf soziale Beziehungen an. So habe ein Konfuzianer deutlich mehr Gewissensbisse, die Mutter eines Menschen als einen Fremden zu töten, wenn damit zwei Fremde gerettet werden können. Natürlich hat auch der "Fremde" eine Mutter. Doch die Frage ist, welche Kontextinformationen der Entscheider bzw. Fahrcomputer hat.

Der Vater von drei Kindern weckt naturgemäß mehr Empathie als ein namenloser Fußgänger. Der utilitaristische Aspekt, möglichst viele Menschenleben zu retten, tritt in den Hintergrund. Das ist insofern interessant, als die Einbeziehung von Kontextinformationen (Wer ist die Mutter? Hat die Person Kinder?), die im konfuzianischen Koordinatensystem für die Entscheidung ethischer Dilemmata wichtig ist, dem Schutz der Privatsphäre entgegensteht. Datenschutz bedeutet nichts anderes als das Verbergen personenbezogener Informationen, was sich hier aber nachteilig auswirkt. Nur wer sich maximal exponiert, hätte in diesem Setting eine Überlebenschance.

Fragen der Moral

Wo der Datenschutz in westlichen, individualistischen Gesellschaften tendenziell entindividualisierend wirkt, führt das Herausstellen persönlicher Merkmale bzw. personenbezogener Daten (Familienstand, Kinder, kranke Angehörige) in kollektivistischen Gesellschaften zu einer Individualisierung von Entscheidungen. Wie ein moralisches Dilemma beantwortet wird, hängt also stark vom Kulturkreis ab. Man kann dies gut an den Publikumsvoten von Ferdinand von Schirachs Theaterstück "Terror" studieren, das auf der ganzen Welt aufgeführt wurde. In dem Stück sollten die Zuschauer als Schöffen über die Schuld eines Luftwaffenpiloten abstimmen, der ein Flugzeug mit 164 Passagieren, das Kurs auf ein vollbesetztes Stadion mit 70.000 Besuchern nimmt, zum Abschuss freigibt. Während in Japan in 15 von 23 Vorstellungen das Publikum auf schuldig plädierte, wurde der Pilot in Deutschland in 1.525 Vorstellungen 1.400 Mal freigesprochen. Die Daten legen nahe, dass es in Europa und Fernost unterschiedliche Moralvorstellungen gibt, die Rechtstraditionen und auch das Rechtsempfinden determinieren.

Eine MIT-Studie ("Moral Machine Experiment") bestätigt diese Tendenz. In der Erhebung wurden 2,3 Millionen Menschen aus 130 Ländern nach ihren Moralvorstellungen befragt: Wen soll ein Roboterfahrzeug bei einer Kollision verschonen? Junge oder Alte? Arme oder Reiche? Zwei Joggerinnen und eine alte Frau oder zwei Schulkinder? Das Ergebnis: Während es im Westen eine starke Präferenz dafür gibt, alte zugunsten junger Menschen zu "opfern", gibt es im konfuzianisch geprägten Osten eine sehr stark ausgeprägte Haltung, die "Rechtmäßigen" - also diejenigen, die sich an die Straßenverkehrsregeln halten - zu schonen.

Heilige Tiere

Demgegenüber zeigten sich Studienteilnehmer aus ärmeren Ländern mit schwachen Institutionen nachgiebiger gegenüber Regelbrechern im Verkehr - womöglich, weil das Vertrauen in den Rechtsstaat und die Erwartung an Regelkonformität geringer ist. Die Studie belegt, dass es so etwas wie eine universelle Moral nicht gibt. Das ist nicht bloß für das philosophische Seminar interessant, sondern hat ganz praktische Implikationen, schließlich werden Roboterfahrzeuge auch in konfuzianisch geprägten Gesellschaften in Fernost entwickelt. Und exportiert. Der chinesische Suchmaschinenriese Baidu, der für die Entwicklung seiner autonomen Fahrzeuge Googles Mastermind Andrew Ng abwarb, hat mit seiner Flotte über eine Million Testkilometer absolviert - und ist hiesigen Autobauern meilenweit voraus.

Die Autoren Bell und Pei plädieren nicht dafür, Roboterautos einen "uniformen Code konfuzianischer Werte" einzuprogrammieren. Sie schreiben nur, dass es beim ethischen Design auf den kulturellen, regionalen und religiösen Kontext ankomme. So müssten beispielsweise Roboterautos in Tibet mit buddhistischen Werten programmiert werden, die der Heiligkeit von Tieren Rechnung tragen. Wenn sich in der Dilemmasituation links eine Kuh und rechts ein Fahrradfahrer befinden, verändert das die Gleichung.

Ein nach westlichen Standards programmiertes Auto würde bei einer drohenden Kollision zweifellos die Kuh opfern, weil Tiere juristisch betrachtet Sachen sind (moralphilosophisch wäre es trotzdem ein Dilemma). Ein autonomes Fahrzeug aus einer buddhistischen Softwareschmiede würde wohl eher den Radfahrer opfern, was aus einer westlichen Warte einigermaßen verstörend ist. Ein Menschenleben kann ja nicht weniger wert sein als ein Tierleben. Trotzdem darf ein Algorithmus unterschiedliche Rechts- und Moraltraditionen nicht außer Acht lassen.

Auf Kollisionskurs

Es stand schon vor Jahren die Befürchtung im Raum, dass mit der Dominanz der kalifornischen Plattformökonomie über das autonome Fahrzeug als "Moralvehikel" ein klandestiner Ethiktransfer stattfindet. Weg von einer nationalen Rechtstradition, die jede Gewichtung von Menschenleben verbietet, hin zu einer quantifizierenden Rechtsethik nach amerikanischem Modell. Im Schatten des globalen Wettrennens um die Vorherrschaft der KI, das maßgeblich von amerikanischen und chinesischen Playern ausgetragen wird, bahnt sich ein Gerangel um die Dominanz von Wertesystemen an. China verfolgt bei der Entwicklung seiner KI einen techno-utilitaristischen Ansatz, der weniger auf Individualrechte abzielt als vielmehr nach dem Nutzen der Gemeinschaft fragt. Konfuzius statt Kant also. Daher haben Chinesen auch kein Problem damit, wenn in Klassenzimmern Gesichtserkennungssysteme installiert werden, um Schüler zu screenen, weil Langeweile oder Unaufmerksamkeit für die Lerngemeinschaft ein größeres Problem darstellt als die Privatsphäre des Einzelnen.

Wenn also China im Wettlauf der KI das Rennen macht und alltagstaugliche Roboterfahrzeuge auf die Straße bringt, könnten durch die Hintertür der Technik bestimmte Moralvorstellungen der konfuzianischen Lehre Eingang in westliche Gesellschaften finden. Könnten sich autonome Fahrzeuge made in China am Ende nicht nur deshalb durchsetzen, weil ihre Technik besser ist, sondern das ethische Design kompatibler mit dem Rechtsempfinden der Bürger?

Man muss nicht die Sorge haben, dass Roboterautos das trojanische Pferd der chinesischen Moralpolizei sind. Ein Wettbewerb der Systeme kann durchaus vitalisierend für die Akzeptanz von Normen wirken. Doch für die Legitimation von Roboterfahrzeugen ist es entscheidend, dass Normen, die in Gemeinschaften anerkannt sind, auch in KI-Systemen implementiert werden. Ein Machine-Learning-Algorithmus eines chinesischen Roboterautos muss lernen, dass auf europäischen Straßen Leben nicht gegeneinander abgewogen werden dürfen - sonst befindet er sich auf Kollisionskurs mit der Rechtsordnung.

Adrian Lobe, geboren 1988, schreibt für diverse Medien im deutschsprachigen Raum.

Quellen:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2781702

https://www.nature.com/articles/s41586-018-0637-6