• vom 06.07.2017, 17:51 Uhr

Mensch

Update: 06.07.2017, 20:03 Uhr

Mensch und Maschine

Maschinen im moralischen Dilemma




  • Artikel
  • Kommentare (2)
  • Lesenswert (9)
  • Drucken
  • Leserbrief




Von Eva Stanzl

  • Ein Kind überfahren oder das Lenkrad verreißen und die Insassen töten: Autos sollen wie Menschen handeln lernen.

Wem versucht das selbstfahrende Auto eher auszuweichen - Älteren oder Kindern, Tier oder Mensch? Fotolia

Wem versucht das selbstfahrende Auto eher auszuweichen - Älteren oder Kindern, Tier oder Mensch? Fotolia

Die Weichen sind gestellt: Wer Auto fahren will, sitzt irgendwann nicht mehr hinterm Lenkrad, sondern wird vom Wagen chauffiert. Das Fahrzeug achtet selbst aufs Tempolimit, hält die Sicherheitsabstände ein, bremst immer rechtzeitig ab. Allein in Österreich verursachen Menschen knapp 40.000 Straßenverkehrsunfälle pro Jahr - bei autonomen Fahrzeugen liegt die Crash-Gefahr bei nahezu null.

Das "nahezu" ist entscheidend. Denn wie so oft definieren auch hier Extremsituationen die Qualität. Was soll ein selbstfahrendes Auto tun, wenn aus heiterem Himmel ein Kind über die Straße läuft? Soll es das Lenkrad verreißen - und dabei gegen eine Wand fahren, was zwar das Kind retten, aber die Insassen töten würde?

Werbung

Autokonzerne investieren Millionen, um ihre selbstfahrenden Modelle möglichst bald auf die Straße zu bringen. Weltkonzerne wie Google und Amazon entwickeln künstliche Intelligenzen für jeden Lebensbereich. Die EU investiert im Rahmen des teuersten zivilen Förderprogramms, Sparc genannt, bis 2020 rund 700 Millionen Euro in die Entwicklung von Robotern, die Privatindustrie soll das Dreifache beisteuern. Doch was genau Roboter können sollen und ob es ethische Grenzen für ihr Handeln geben muss, dazu gibt es keine Regeln. Niemand weiß, wie einem Computer so viel moralisches Verständnis beigebracht werden kann, dass er in Konfliktsituationen das Richtige tut.

Maschinen können keine ethisch fundierten Überlegungen auf der Basis von Empfindungen, Werten und Intuition anstellen. Sie haben kein mentales Spektrum, das durch bewusste und unbewusste Erfahrungen geprägt ist, und können kein Umfeld beurteilen, das unzählige Unvorhersehbarkeiten und Variablen kennt. Roboter all dies zu lehren, sagen Neurowissenschafter und Informatiker gleichermaßen, sei, als wolle man die Unendlichkeit programmieren.

Stimmt nicht, finden Kognitionsforscher der deutschen Uni Osnabrück: Wenn Leben von einem Moment auf den anderen auf dem Spiel steht, dann handeln wir simpler, als wir vielleicht gerne wahr hätten. Und wir folgen einer Geradlinigkeit, die sich so wie die Prinzipien der Evolution in einigen wenigen Sätzen auf den Punkt bringen lassen. Ein Algorithmus, der diesen Prinzipien folgt, ließe sich durchaus in Computer, Roboter und Autos implementieren. Dann würde Maschinen Entscheidungen treffen nach einer Ethik wie der Mensch. "Da die Technik heute mit uns lebt, wollen wir keine Gedankenexperimente anstellen, sondern die Praxis nachvollziehen, um so etwas wie eine Philosophie der Technik zu entwickeln", erläutert Gordon Pipa, Professor für Neuroinformatik am Osnabrücker Institut für Kognitionswissenschaften.

Ein philosophisches Gedankenexperiment ist das "Trolley-Problem": Ein Güterzug droht wegen falscher Weichenstellung auf einen vollbesetzten Personenzug aufzufahren. Ein Weichensteller erkennt die Gefahr und leitet den Güterzug auf ein Nebengeleis um, wodurch eine Gruppe von Gleisarbeitern zu Tode kommt. Wie ist die Strafbarkeit des Weichenstellers zu beurteilen? "Die philosophische Diskussion zeigt, dass Menschen versuchen, den größtmöglichen Schaden zu vermeiden", erklärt Pipa.

Doch nach welchen Kriterien gehen wir dabei vor? Dieser Frage gingen er und seine Kollegen nach. Sie versetzten 160 Probanden mittels Datenbrillen in eine realitätsnahe computergenerierte virtuelle Welt, in der sie ein Auto lenken mussten. In diesem virtuellen Raum stellten die Forscher ihre Probanden vor Extremsituationen, in denen sie in Sekundenbruchteilen entscheiden mussten - in dem Bewusstsein, dass jeder Schritt Schaden anrichtet. Zu den Parametern zählten Mann, Frau, Bub, Mädchen, Tiere und Objekte, Nacht und Nebel, Stadtzentren und Randbezirke, Landstraßen und Autobahnen, technische Störungen und defekte Bremsen.

Die Entscheidungen waren klar. "Aus der Statistik, die wir aus den Antworten erstellt haben, ließ sich ablesen, dass die meisten Probanden in Sekundenentscheidungen sehr wohl Leben gegen Leben abwägen", erklärt Pipa: "Intuitiv wird das Kind meistes geschützt im Verhältnis zum Erwachsenen, Menschen im Verhältnis zu Tieren und Tiere im Verhältnis zu Objekten."

Als Nächstes beschrieben die Neuroinformatiker diese Verhältnisse im Computermodell. Das Ergebnis war ein Algorithmus, der prognostiziert, wie ein Mensch in einer Situation entscheidet. "In über 90 Prozent konnte das Programm vorhersagen, was die Menschen im Experiment taten. Bisher wurde aber vorausgesetzt, dass wir dabei so komplexe Abwägungen machen, dass ein Computer die Faktoren nicht erlernen kann. Das scheint nicht der Fall zu sein. Die Daten zeigen, dass es eine Hierarchie gibt, die durch die Wertigkeit des Lebens definiert ist", fasst Pipa zusammen.

"Die Würde des Lebens ist unantastbar", heißt es in Artikel 1 des Grundgesetzes der Bundesrepublik Deutschland. Österreich hat keinen Grundrechtskatalog, es gilt Paragraf 16 des Allgemeinen Bürgerlichen Gesetzbuches aus dem Jahr 1811: "Jeder Mensch hat angeborene, schon durch die Vernunft einleuchtende Rechte und ist daher als eine Person zu betrachten." Leben ist laut Gesetz nicht abwägbar. Allerdings sieht der Mensch das anders. Für Autobauer wäre somit das ethisch handelnde Auto erstmals möglich. Pipa sieht durchaus Chancen, dass das Programm implementiert werden könnte - "wenn man genug Variablen programmiert".

weiterlesen auf Seite 2 von 2




2 Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)



Dokumenten Information
Copyright © Wiener Zeitung Online 2017
Dokument erstellt am 2017-07-06 17:57:05
Letzte ńnderung am 2017-07-06 20:03:34



Beliebte Inhalte

Meistgelesen
  1. Einer von drei kehrt nicht wieder
  2. "Einfach ein schlechter Politiker"
  3. Berufliche Smartphone-Nutzung fördert das Grübeln
  4. Aufwärtstrend für Meeresschildkröten
  5. Schwere Grippewelle befürchtet
Meistkommentiert
  1. "Der Albtraum der totalen Transparenz"
  2. Schwere Grippewelle befürchtet
  3. "Einfach ein schlechter Politiker"
  4. Das Solar-Dach als Stromtankstelle
  5. Diplomatie und Mystik

Werbung




Werbung


Werbung