Zum Hauptinhalt springen

Tödliche Autonomie

Von Eva Stanzl

Leitartikel
Eva Stanzl ist Redakteurin im Ressort "Feuilleton".
© Luiza Puiu

Hinweis: Der Inhalt dieser Seite wurde vor 6 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.

Dass der Computer hinter dem Steuer weniger Unfälle baut als der Mensch, ist das stärkste und einleuchtendste Argument für die Einführung von selbstfahrenden Autos. Ob es aufgeht, ist offen. Denn die wenigen Modelle im Testbetrieb waren an bereits zwei tödlichen Unfällen auf den Straßen beteiligt. Nach einem Zusammenstoß eines Tesla-Autos mit Selbstfahr-Funktion mit einem Lkw im Jahr 2016 wurde nun eine Fußgängerin von einem autonomen Pkw des Fahrdienstleisters Uber überfahren. Das Unternehmen gibt an, dass den Roboter keine Schuld treffe, da die 49-jährige Frau aus dem heiteren Himmel nachts die Straße betreten habe: Auch ein menschlicher Fahrer hätte in dieser Situation Fehler machen können.

Es bleibt der Verdacht, dass autonome Fahr-Systeme zu früh auf die Straßen entlassen werden. Verkehrssicherheit bedeutet, dass sich alle Teilnehmer einig sind, dass sie Unfälle vermeiden wollen, konzentriert unterwegs sind und die Regeln einhalten. Wenn nur ein Element fehlt, ist es als wären Berserker unterwegs. Autonome Autos haben durchaus das Potenzial zu einem Chaos von dieser Sorte. Sie können das Verhalten von Menschen schwer vorhersagen und echte Probleme entstehen, wenn Mensch und Maschine das Auto gemeinsam steuern. Denn pikanterweise saß im Uber-Unfallwagen ein Mensch, der einen Unfall hätte verhindern sollen. Er hat das Steuer aber nicht herumgerissen, weil er sich auf den Autopiloten verließ. Und genau hier liegt das Problem: Völlig autonome Autos sind zwar das Ziel der Hersteller und werden von ihnen auch als bereits real verkauft. Was aber im Verkehr getestet wird, sind teilautonome Systeme in verschiedenen Stufen des Fortschritts. Viele dieser Modelle erfordern, dass ein Mensch, der bei Gefahr eingreifen kann und im Notfall haftet, mitfährt. Die Mischung ist problematisch bis tödlich, gerade wenn der Mensch allzu großes Vertrauen in die Technik legt, seine Letztverantwortlichkeit abgibt und sich in der falschen Sicherheit wiegt, dass ihn sein autonomes Gefährt wie ein Taxi nach Hause chauffiert. Im Ergebnis schlief ein Fahrer in Kalifornien jüngst am Lenkrad ein und merkte nicht, dass der Autopilot seines Wagens auf einer fünfspurigen Autobahn stehen geblieben war. Neben Tausendsassas von Autopiloten und Genies von Sensoren müssen die Hersteller somit auch Menschen erfinden, die sich aufs Fahren konzentrieren, ohne den Wagen zu lenken. Oder sie lassen sich Zeit, bis autonome Autos straßentauglich sind, anstatt sie schon jetzt in einen Verkehr zu entlassen, in dem nicht klar ist, wer fährt. Denn die Misere ist, dass die Menschen die Reklame glauben. In Wirklichkeit könnte es aber dauern, bis Computer unfallfrei fahren - auch das Flugzeug wurde ja nicht binnen zweier Jahrzehnte zum Airbus 380.