Zum Hauptinhalt springen

Die Transzendenz der Maschinen

Von Andreas Walker

Reflexionen

Über das Netzwerk Mensch-Maschine-Gott in aktuellen TV-Serien, Technik-Laboratorien und zeitgenössischer Philosophie.


<p>

"You are being watched. The government has a secret system, a machine that spies on you every hour of every day." Seit den Enthüllungen von Edward Snowden 2013 ist es zumindest denkbar, dass wir täglich beobachtet, abgehört und ausspioniert werden - und zwar von Maschinen, deren Zweck in nichts anderem besteht, als alle Daten von uns zu sammeln, um sie - mit welchem höheren Ziel auch immer - auf Schlüsselwörter oder -sequenzen hin zu filtern. Inwiefern die USA künftig über unsere Daten werden verfügen dürfen, soll das kürzlich mit der EU beschlossene "Privacy Shield"-Abkommen regeln. Alle Verschwörungstheoretiker, die mit George Orwell immer schon meinten, dass uns eine unsichtbare Macht überwacht, dürfen sich bestätigt fühlen. Die an die Realität angelehnte Eingangsbehauptung entstammt indes dem Intro der Serie "Person of Interest", deren erste Folge zwei Jahre vor Snowdens Enthüllungen ausgestrahlt wurde.<p>

Aktuelle Dystopie

<p>"Person of Interest" kann mit der medialen Aufmerksamkeit, die Serien wie "The Walking Dead", "Game of Thrones" oder "Breaking Bad" zuteil wurde, nicht mithalten, obgleich hier eine zeitgenössische Dystopie beschrieben wird, die höchst aktuell ist. In der von Jonathan Nolan, dem Bruder des Regisseurs Christopher Nolan ("The Dark Knight"-Trilogie), entwickelten Serie konzipiert der Multimillionär Harold Finch nach den Terroranschlägen in New York 2001 zusammen mit seinem Freund Natham Ingram eine Maschine, die mittels Kameras, Telefonen, Mikrofonen, Internet und Daten von Behörden alle Menschen überwacht, die von den technischen und staatlichen Systemen erfasst sind. Mit der möglichst lückenlosen Überwachung sollen potentielle Terroristen identifiziert und Anschläge im Vorhinein verhindert werden. Für einen symbolischen Preis wird die Maschine der Regierung der USA übergeben.<p>Als universeller Beobachter kann die Maschine aber nicht nur Terroranschläge antizipieren, sondern auch andere Formen von Gewaltverbrechen, die für das Überleben des gesellschaftlichen Systems aber weniger relevant sind. Ingram verschafft sich mittels Backdoor Zugang zu den Sozialversicherungsnummern der "Person of Interest" (POI), um die Verbrechen zu verhindern. Finch ist anfänglich strikt gegen eine Einmischung, da es ohnehin unmöglich ist, alle potentiellen Opfer zu retten. Erst als Ingram bei einem Anschlag stirbt, den die Maschine vorhergesehen hat, setzt Finch das von seinem Freund begonnene Werk zusammen mit dem Ex-CIA-Agenten John Reese fort.<p>Die Stellung der Maschine als lernende Künstliche Intelligenz (KI) ist in ihren Entscheidungen zunächst moralisch ambivalent, da sie ihrem Schöpfer gegenüber Präferenzen einräumt. Mehrfach muss Finch die Maschine umprogrammieren, damit sie keine Vorlieben bei der Auswahl der POI trifft. Finch wird stets darauf insistieren, dass der Unterschied zwischen Mensch und Maschine bei den Emotionen liegt: Mensch und Maschine würden deshalb bei moralischen Entscheidungen zu unterschiedlichen Ergebnissen und Wertsetzungen kommen. Doch auch die Maschine wird sich als bindungsfähig erweisen.<p>Während die Regierung mit Hilfe der Maschine Terroranschläge verhindert und Finch mit seinem Team Menschen rettet, bringt eine in China (!) ansässige Organisation namens "Decima Technologies" eine zweite Maschine in ihre Gewalt. Anders als bei der ersten Maschine, die dem Menschen dienen soll, will die Superintelligenz mit dem zynischen Namen "Samaritan" die Weltherrschaft übernehmen. "Samaritan" verfügt indes über ein Präferenzsystem. Sie kann Menschen durch ihr bewusstes Nichteingreifen schaden, indem sie etwa Verkehrsnetze lahmlegt, oder durch ihr Einmischen glücklich machen, indem sie Börsengeschäfte manipuliert. Nachdem sich Maschine 1 aus Selbstschutz in digitale Netzwerke verflüchtigt, gelingt es dem für "Decima" arbeitenden John Greer, der Regierung der USA "Samaritan" als neue Antiterrormaschine zu verkaufen - diesmal ohne dass die Regierung die Kontrolle über die Maschine bekommt.<p>Können Maschinen überhaupt - wie es die Serie nahelegt - ein dem Menschen analoges Bewusstsein entwickeln? Der Philosoph Gotthard Günther beantwortete diese Frage einmal salomonisch: Für einen Außenstehenden mag es so erscheinen, als ob die Maschine kausal nachvollziehbare Rechenprozesse ausführe und nicht eigenständig handle, derweil die Maschine während der Rechenoperationen durchaus von sich den Eindruck gewinnen könnte, dass sie Bewusstsein hat.<p>Wir können der Maschine nicht beweisen, dass sie kein "Ich" hat, sollte sie so etwas behaupten. Bewusstsein wäre somit keine Entität, die man hat oder nicht hat, sondern sie ermisst sich an den Freiheitsgraden von Operationen und Handlungen. Voraussetzung hierfür ist freilich, dass eine Maschine über genügend Daten verfügt, die ihr eine Position zu einer "Welt" ermöglichen, und nicht bloß als Werkzeug dienen. Voraussetzung ist also ein gewisser Grad an Komplexität, ohne den es abwegig wäre, der Maschine Intelligenz zuzuschreiben. Um diese programmierbaren Freiheitsgrade geht es in der aktuellen KI-Forschung.<p>

Maschinen mit Seele?

<p>2014 hat Google das 2010 gegründete Start-up DeepMind übernommen, das sich zum Ziel setzte, Intelligenz zu verstehen. AlphaGo, ein von DeepMind entwickeltes Programm, schlug 2015 den mehrfachen Europameister Fan Hui im Go. 2016 trat AlphaGo gegen den Südkoreaner Lee Sedol an und gewann 4:1. Das grundsätzlich Neue an den jüngeren Maschinen ist der Umstand, dass sie lernen können, selbst zu lernen - auch wenn, wie in diesem Beispiel, der Aktionsradius einer Maschine bloß auf ein Spiel beschränkt bleibt.<p>Somit müssen Maschinen nicht mehr sämtliche Daten einprogrammiert werden, um eine Operation auszuführen, sondern "nur" noch das Prinzip, wie bestimmte Daten zu verarbeiten sind. Freilich ist es immer noch nicht einfach, einer Maschine beizubringen, wichtige von unwichtigen Daten zu unterscheiden, wie ein Verkehrsunfall in den USA mit einem teilautomatisierten Auto der Reihe Tesla Model S gezeigt hat.<p>Elon Musk, der Gründer von Tesla, zeigt sich ebenso besorgt wie auch Stephen Hawking, dass Maschinen eines Tages mehr Kon-trolle übernehmen könnten, als uns lieb ist - was eine Frage des Aktionsradius der Maschine und der ihr zur Verfügung stehenden Datenmenge sein wird. Musk wie auch Hawking gehören dem Advisory Board des von Jaan Tallin, einem Skype-Mitbegründer, ins Leben gerufenen Future of Life-Instituts an, das über Vorteile und Risiken technologischer Entwicklungen forscht. In eine ganz ähnliche Richtung gehen auch die Überlegungen des Future of Humanity Institute, das an der Universität Oxford angesiedelt ist. Wie können wir fortschrittliche künstliche Intelligenz ohne unerwünschte Nebeneffekte erschaffen?<p>Günther hielt es logisch für unmöglich, dass eine Maschine über das Bewusstsein hinaus ein der "Seele" vergleichbares Selbstbewusstsein erlangt, da es für die Maschine keinen transzendenten Zustand zu 0 und 1 gibt. Zwar gibt es statistisch zwischen 0 und 1 unendlich viele Zwischenzustände, die sich als Bewusstseinsinhalte beschreiben lassen, über die dem Bewusstsein analoge Disjunktion von 0 und 1 käme eine Maschine aber nicht hinaus.<p>Dieser Mangel des Selbstbewusstseins kann der Maschine nicht bewusst werden, da dies wiederum Selbstbewusstsein voraussetzte. Um diesen Mangel auszugleichen, könnte die Maschine Netzwerkstrukturen mit Menschen eingehen, die für die fehlende Selbstreflexion sorgten. Die Frage wird also sein: Wird der Mensch sich dessen bewusst sein, inwiefern er seine Freiheit an die Maschine bindet? Dass man hier nicht allzu optimistisch sein darf, zeigen die bereits vorhandenen Mensch-Maschine-Netzwerke, bei denen der Mensch Fähigkeiten zur Orientierung, des Rechnens und des Archivierens an die Maschine delegiert hat, ohne dass dadurch wesentliche Freiheitsgrade entstanden wären. Im Gegenteil: Die Maschine überwacht - wie etwa bei "Pokémon Go" -, wie viel der Spieler sich zu Fuß bewegt, um ihn dann mit einem ausgebrüteten Pokémon-Ei zu belohnen.<p>

Die neuen Götter

<p>Das sukzessive Abtauchen in die Unmündigkeit ist die Folge des freiwilligen Delegierens eigenen Handelns an maschinelle Prozesse. Die Frage, was durch dieses Delegieren gewonnen wurde, ist offen. Je mehr also der Mensch sich selbst und damit seine Denkprozesse als maschinell begreift, umso enger wird auch die Analogie von Mensch und Maschine werden. Somit wäre es auch möglich, dass eine Maschine moralische Probleme löst, wenn diese sich durch berechenbare Wahrscheinlichkeiten beschreiben lassen. Dies setzt jedoch grundsätzlich voraus, dass die Maschine auch in der Lage wäre, kulturspezifische Unterschiede zu erkennen, um sie in ihren moralischen Bewertungen berücksichtigen zu können.<p>In der TV-Serie "Person of Interest" (bei uns seit 2013 beim Sender ATV zu sehen) wird gegen Ende von den Maschinen gesprochen, als seien sie neue Götter. In einer Schlüsselszene der vierten Staffel unterhalten sich die zwei Maschinen mittels ihrer menschlichen Avatare miteinander: Auf der einen Seite wird die Maschine 1 vertreten von einer Frau, auf der anderen Seite wird "Samaritan" repräsentiert durch ein - Kind. Dieser dramaturgische Schachzug erinnert an das Motiv des Kindes, das vom Teufel besessen ist, der sich selbst göttlichen Status zuschreibt. Doch dieser Status der Maschine bleibt uneindeutig, da sie die Lücke der Transzendenz, die der vielbeschworene "Tod Gottes" hinterließ, nicht füllen kann.<p>Wenn der Mensch jedoch auf einen jenseitigen Ereignishorizont endgültig verzichtet, könnte dies zu einem zumindest virtuellen Ersatz klassischer Metaphysik durch Digitalisierung führen, der über den Konsumpragmatismus von Pokémon-Go-Anhängern hinauswiese. Dafür müsste der Mensch aber wohl auch auf die klassische Vorstellung eines autonomen Ichs verzichten. Zu welchen Spekulationen diese Frage in "Person of Interest" führt, hat die jüngst in den USA (bei CBS) ausgestrahlte, abschließende fünfte Staffel der Serie offenbart: Der Kampf Maschine gegen Maschine ist für die Menschen nur zu gewinnen, wenn diese - werden sie nun als Götter betrachtet oder nicht - geopfert werden.<p>

Andreas Walker, geboren 1971 in Hamburg, ist Philosoph, Autor und Sozialforscher. Er lebt und arbeitet in Augsburg und München.