Das Philosophicum Lech wurde auf 2021 verschoben, der Tractatus-Essay-Preis wurde heute dennoch vergeben - an den Medienwissenschafter Roberto Simanowski.
Hinweis: Der Inhalt dieser Seite wurde vor 4 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Was zählt mehr: die Würde des Einzelnen oder das Wohl einer Nation? Geht es nach Roberto Simanowski, so lässt sich diese Frage heute nicht mehr ganz so klar zugunsten des Individuums beantworten. Den Grund dafür sieht der Kulturwissenschafter in neuer Technologie, die nicht nur unser Leben, sondern auch unser Ethik-Konzept verändert. Der Preisträger des Tractatus-Essay-Preises 2020 im Gespräch über sein Buch "Todesalgorithmus", das Dilemma Künstlicher Intelligenz, warum uns Maschinen dümmer machen und das Paradies nicht unbedingt glücklich.
"Wiener Zeitung": Gegen wen richtet sich der "Todesalgorithmus"?
Roberto Simanowski: Ausgangspunkt ist der Algorithmus in selbstfahrenden Autos. Der muss im Notfall entscheiden, wem er ausweicht, er entscheidet also über Leben und Tod. So ein Algorithmus muss programmiert werden, dazu braucht es Parameter. Doch im Deutschen Grundgesetz gibt es das Verrechnungsverbot: Das Leben eines Kindes darf nicht mehr wert sein als das eines Greisen, fünf Leben nicht mehr als eines. Programmieren wir aber keinen entsprechenden Algorithmus, würde das noch mehr Menschenleben kosten. Also werden wir unsere ethischen Grundsätze ändern müssen und einen solchen Todesalgorithmus fabrizieren, der danach trachtet, die größtmögliche Lebenszeit zu retten.
Das größte Glück für die größte Masse: Die USA und England setzen bereits auf dieses utilitaristische Ethikmodell.
Ja, aber hier ist es die Technik, die uns eine neue Ethik vorgibt, nicht die USA. Es ist eine Ethik, die besser zu einer Technik passt, nicht unbedingt zu uns als Gesellschaft. Die Debatte dahingehend gibt es auch in Deutschland. Das Leben ist mit Heidegger ein "Leben auf den Tod hin". So gesehen macht es einen Unterschied, ob man 10 Jahre alt ist und das Leben noch vor sich hat - oder 85.
Ethische Konzepte werden doch immer wieder angepasst und nachgeschärft?
Der Punkt ist, dass nicht eine Gesellschaft hier ein neues Modell fordert, sondern die technische Entwicklung. Da geht es um einen historischen Paradigmenwechsel. Die Pole sind da seit 1800 festgeschrieben. Immanuel Kant gegen Jeremy Bentham, Kategorischer Imperativ gegen Utilitarismus, Europa gegen England und die USA. Doch es ist nicht nur die Technik: Auch der Terrorismus und das Pandemiegeschehen - Stichwort: Triage - fördern diesen Wechsel, weil sie uns vor ähnliche Entscheidungen stellen. Wem gebe ich das Intensivbett? Wohin steuere ich das entführte Flugzeug. Die Technik beschleunigt diese Entwicklung nur.
Kant hätte sich auch nicht gedacht, dass Philosophen einmal zentral in Produktionsketten - wie aktuell beim selbstfahrenden Auto - eingebunden sein würden. Bekommt die Philosophie eine ungeahnte Praxisnähe?
Das ist eines der schönen Paradoxa! Dass die Philosophen jetzt die wichtigsten Personen in dieser Kette sind. Aber in der Praxis sieht es anders aus. Das Gesetz zum automatisierten Fahren ging vor dem Beschluss der Ethikkommission durch den Bundestag. Das lässt an dieser zentralen Rolle zweifeln.
Sind Sie schon angefragt worden von einem Automobilkonzern?
(lacht) Nein. Ich weiß auch nicht, ob ich die richtige Person wäre. Ich bin zwar kein Kulturpessimist, aber die intellektuelle Redlichkeit verlangt hier einen sehr kritischen Blick.
Sie skizzieren, man könne den Todesalgorithmus seines Autos künftig wählen wie Lackfarbe oder Polsterbezug. Ist das ernst gemeint?
Nein, das kann ich mir nicht in der Praxis vorstellen. Das wäre gesellschaftlich sehr problematisch. Das passiert zwar jetzt im Effekt auch, die Entscheidung, im äußersten Notfall gegen die Wand zu fahren oder in eine Gruppe von Passanten. Aber so eine Entscheidung kalten Blutes zu programmieren, wäre ziemlich brutal. Da müsste es davor eine große Debatte in der Gesellschaft geben.
Selbstfahrende Autos sind für Sie eine Testfahrt für eine Künstliche Intelligenz, die unser Leben durchwebt. Welches Szenario schwebt Ihnen da vor?
Dass wir mehr und mehr Entscheidungen im Leben an die Künstliche Intelligenz auslagern, weil wir sehen, dass sie darin effektiver ist. Wir könnten KI auch das Mandat geben, die Klimaproblematik anzugehen, um internationale Beschlüsse optimal einhalten zu können - wie wir dem selbstfahrenden Auto das Mandat geben, uns nach Hause zu fahren.
KI soll das menschliche Defizit ausgleichen, Handeln nicht nach künftigen Konsequenzen ausrichten zu können?
Der Mensch ist besser in seinem Denken als in seinem Handeln. Er ist immer in der Gegenwart verfangen. Wie beim Sporttreiben, beim fetten Essen, beim Rauchen. Wenn eine politische Kraft das aufgreifen würde und konsequentes Handeln verspräche, hätte sie sicher eine gewisse Wählerschaft. Auch wenn die daraus resultierenden Einschränkungen massiv in das Leben jeder und jedes Einzelnen eingreifen würden.
Das klingt nach einer KI-Öko-Diktatur. Ist so etwas mehrheitsfähig?
Das ist die Frage. Aber je mehr wir sehen, dass es so nicht weitergeht - Waldbrände, Tornados, Epidemien -, desto dringlicher werden wir erkennen, dass wir etwas tun müssen. Wir werden dennoch ungern verzichten. Aber ohne systemische Veränderungen wird es nicht gehen. Die aktuelle Corona-Krise zeigt, zu welchen Einschränkungen Menschen bereit sind. Die Frage ist, ob der Mensch bereit ist für so einen Souveränitätstransfer.
Das klingt nach gefährlichem Kontrollverlust. Öffnet das nicht die Türen für Machtmissbrauch und Manipulation?
Wir werden selbstlernende Maschinen irgendwann nicht mehr kontrollieren können. Sie werden im Weiterdenken dessen, was wir ihnen aufgegeben haben, zu neuen Erkenntnissen kommen. Was, wenn so eine starke KI zum Schluss kommt: Das Überleben der Erde ist am besten zu gewährleisten, wenn man den Menschen beseitigt? Das müsste man den Maschinen einprogrammieren - in Form der Asimov’schen Robotergesetze: sich nicht gegen den Menschen zu wenden. Die Manipulation durch den Menschen ist dann ein anderes Thema. Die philosophischere Frage ist: Was passiert, wenn KI zu eigenen Schlüssen kommt und Beschlüsse des Menschen aufhebt. Denn wenn wir Intelligenz schaffen, die klüger ist als wir, dann wird es auch den roten Aus-Knopf nicht geben.
Wenn KI uns alle Entscheidungen abnimmt, was für ein menschliches Leben ist das dann noch?
Dann sind wir faktisch Maschinen wie im Paradies, ohne Konflikte, aber dadurch auch ohne den freien Willen, sich für oder gegen etwas entscheiden zu können. Dabei geht natürlich viel an Menschlichkeit verloren. Moralisches Handeln gibt es mit Kant ja nur, wenn wir die Wahl haben, auch falsch zu handeln. Ein kybernetisches Gesellschaftsmodell fokussiert nicht auf die Emanzipation des Einzelnen, sondern auf die Stabilität des Systems. Dabei verhindert man, dass der Mensch das Falsche tut, anstatt ihn dazu zu bringen, freiwillig das Richtige zu tun. Auch das beginnt mit dem selbstfahrenden Auto. Es gehört zum Leitbild des mündigen Bürgers, auch schlecht handeln zu können. Das zu unterbinden, setzt ein ganz anderes Menschenbild voraus - eines, das an asiatische Modelle erinnert, in denen individuelle Rechte eine kleinere Rolle spielen als bei uns. Technologie drängt uns aktuell alle in diese Richtung.
Inwiefern befeuert die Corona-Krise die technische Entwicklung?
Sie ist ein Digitalbeschleuniger - mit Homeschooling und Homeoffice. Und auch ein Beschleuniger der Überwachung. Je mehr digitalisiert wird, desto mehr Daten fallen an und desto mehr kann analysiert und ausgewertet werden. Wir machen uns da aktuell gläserner, als wir denken.
Wenn Maschinen immer intelligenter werden, werden Menschen dümmer?
In bestimmter Hinsicht. Wenn ich mich immer navigieren lasse, kann ich irgendwann keine Karten mehr lesen. Sprich: Je mehr wir auslagern, desto dümmer werden wir. Wenn wir also mehr und mehr Entscheidungen an Maschinen delegieren, steigert das sicher nicht unsere Intelligenz. Sie kommt aus dem Training.
Wie sieht unsere Welt in 10 Jahren aus? Was wird es an KI geben?
Das automatische Fahrzeug sicher. Und andere Verbindungen zwischen Daten. Der Kühlschrank, der mit der Versicherung spricht und mit dem Supermarkt. Also Rückkoppelungen und Vernetzungen, von denen die Gesellschaft profitiert. Das bedeutet auch mehr transparente Daten und weniger Datenschutz - um damit gesellschaftliche Probleme im Interesse der Gemeinschaft zu lösen - vom Gesundheitssystem über das Verkehrsaufkommen bis zum Umweltschutz.
Also gesünder und effizienter. Aber auch glücklicher?
Diese Einschränkungen im Interesse der Gemeinschaft müssen vom Individuum kommen. Dazu braucht es aber eine neue Erzählung von einem Leben im Interesse der Gemeinschaft. Das kann schon funktionieren. Wer ist denn schon glücklich mit diesem absoluten Individualismus? Es fehlt an Sinn. Wenn man den eigenen Verzicht in eine neue Sinnerzählung einbetten könnte - für die Kinder, für die Nation, für die Umwelt-, dann kann Verzicht sinngebend sein. Und Sinn ist definitiv etwas, wonach sich viele Menschen sehnen.