Digitale Revolution? Nein, immer dieselben Routinen und Prozesse . . . - © getty images/Andriy Onufriyenko
Digitale Revolution? Nein, immer dieselben Routinen und Prozesse . . . - © getty images/Andriy Onufriyenko

Wenn von künstlicher Intelligenz, Big Data und Internet die Rede ist, dann fällt häufig das Stichwort "digitale Revolution". Die Digitalisierung, so hört man es immer wieder auf Konferenzen, "disruptiere" alte Industrien und bringe neue Geschäftsmodelle hervor. Wenn VW-Chef Herbert Diess mahnt, Volkswagen müsse zum Tech-Konzern werden, um zu überleben, dann verweist das auf die disruptiven Kräfte der sogenannten vierten industriellen Revolution, in der nicht mehr Blech und Stahl, sondern der Programmcode zum zentralen Baustoff wird.

"Da die enormen Mengen neuer Daten erst noch erzeugt werden müssen, hat Europa die Chance, sich an die Spitze der Daten- und KI-Revolution zu setzen", schreibt die EU-Kommission in ihrem Weißbuch zur Künstlichen Intelligenz. Doch haben wir es bei der Digitalisierung wirklich mit einer "Revolution" im historisch engeren Sinne zu tun, also mit einer radikalen Transformation der Gesellschaft und ihrer Strukturen?

Der Informatiker Joseph Weizenbaum hat 1985 in einem heute immer noch lesenswerten Interview mit dem Magazin "The Tech" die These aufgestellt, dass der Computer "von Beginn an eine fundamental konservative Kraft" gewesen sei: "Er (der Computer, Anm.) hat die Rettung von Institutionen möglich gemacht, die andernfalls hätten verändert werden müssen." Weizenbaum nannte als Beispiel das Bankenwesen. Oberflächlich habe es so ausgesehen, als sei Banking durch den Computer "revolutioniert worden". In Wahrheit sei der Computer lediglich die Antwort der Banken auf das steigende Bevölkerungswachstum gewesen. Wäre der Computer nicht erfunden worden, hätten sich die Banken anders organisieren müssen, etwa mit einer Zentralisierungs- oder Regionalisierungsstrategie, so Weizenbaum.

Systemstabilisierend

Der Programmierer hatte Anfang der 1960er Jahre für die Bank of America eine der ersten Bankensoftwares geschrieben, bevor er mit der Entwicklung des Chatbots Eliza weltweit Berühmtheit erlangte. Für Weizenbaum war der Computer eine Technologie, die bestehende Machtstrukturen vielmehr zementiert als aufbricht. "Was die Etablierung der Computer tat, war, gewissermaßen ,just in time‘, es nicht mehr notwendig zu machen, soziale Erfindungen zu schaffen oder das System in irgendeiner Weise zu verändern." Die Installation von Computern wirkt also tendenziell systemstabilisierend und reformhemmend. Diese Ansicht kontrastiert mit Weizenbaums Nachfolgern, die der Computertechnik eine revolutionäre Kraft attestieren, als wäre die Digitalisierung eine Urgewalt, die das Unterste zuoberst kehrt.

Dass (Verwaltungs-)Apparate strukturkonservativ sind, ist ein in der Bürokratieforschung gut erforschtes Phänomen. Möglicherweise gilt selbiges auch für technische Apparaturen. Der Technikhistoriker Jon Agar identifiziert in seinem Buch "The Government Machine: A Revolutionary History of the Computer" (2003) Ähnlichkeiten zwischen menschlichen Bürokratien und binär operierenden Computersystemen. Den Erkenntnissen der Kybernetik und Organisationssoziologie von Herbert Simon folgend, modelliert er Verwaltungsapparate als Informationssysteme, wobei er zwischen der Rationalität mechanischer und menschlicher Entscheidungsketten differenziert. Die vorherrschende Ordnung, so Agars Argument, spiegele die Auswahl der Technologie wider. Anders gewendet: Eine Gesellschaft gibt sich die soziale Struktur, die der Auswahl ihrer Technik entspricht.

Ein Algorithmus tut das, was ein Amtswalter tut: Er folgt der (Programmier-)Vorschrift. Die Maschine ist der perfekte Bürokrat. Max Weber schrieb in seinen Überlegungen zu bürokratischen Herrschaftsformen, dass der Richter ein "Paragraphen-Automat" sei, "in welchen man oben die Akten nebst den Kosten und Gebühren hineinwirft, auf dass er unten das Urteil nebst den mehr oder minder stichhaltigen Gründen ausspeie". Der Computer und seine immanente Gehorsams- und Befehlsstruktur haben möglicherweise nicht nur die Institution des Verwaltungsstaats und Bankwesens gerettet, sondern auch das Patriarchat. Denn mit virtuellen Assistenten und Haushaltsrobotern, die man in den eigenen vier Wänden herumkommandiert, kehrt die verloren geglaubte Profession der Gouvernante zurück.

Gestern so, heute so

Der deutsch-amerikanische Informatiker Joseph Weizenbaum (1923-2008). - © Ulrich Hansen / CC BY-SA 3.0
Der deutsch-amerikanische Informatiker Joseph Weizenbaum (1923-2008). - © Ulrich Hansen / CC BY-SA 3.0

Wenn man Weizenbaums Diagnose, Computer seien konservativ, weiterdenkt, steckt darin nicht nur eine strukturelle Komponente (Strukturkonservatismus), sondern auch eine semantische. Die Prognosealgorithmen, die unser Verhalten im Alltag vorhersagen sollen, basieren im Wesentlichen auf historischen Daten. Sei es beim Predictive Policing, der vorausschauenden Verbrechensbekämpfung, beim Online-Shopping oder Dating. Die Kausallogik ist folgende: Weil in der Vergangenheit im Stadtteil XY viele Einbruchsdelikte verzeichnet wurden, ist die Wahrscheinlichkeit groß, dass dies auch in Zukunft so sein wird. Weil man bei einem Sturm Kekse im Internet bestellt hat, wird man dies auch beim nächsten Unwetter so tun. Und weil der Tinder-Algorithmus bei bestimmten Eigenschaften immer den einen Typ Mann oder Frau vorschlägt, macht er es beim nächsten Profil genauso. Deterministische Algorithmen sind inhärent konservativ, weil sie bei gleicher Eingabe immer das gleiche Ergebnis liefern. Wie ein sturer Sachwalter, der sagt: "Wir sind schon immer so verfahren!"

Diese Systemeigenschaft haben Algorithmen nicht von Natur aus (es gibt beispielsweise auch iterative Algorithmen), sondern, weil sie so designt werden. Die Programmierer unterstellen in ihren mathematischen Modellen nicht nur eine Gleichförmigkeit und Wiederholbarkeit sozialer Prozesse, sondern implementieren auch eine systemerhaltende Funktion, indem sie in den Code konservative Werte schreiben. Weil es gestern so war, soll es auch morgen so sein! So wird der Status quo mit jedem Feedback-Loop neu zementiert und legitimiert. Man könnte auch von einem Retro-Design der Gesellschaft sprechen.

Ein Beispiel: Nachdem Googles Bilderkennungsalgorithmus das Foto eines Afroamerikaners und seiner Freundin automatisch als "Gorillas" taggte, hat die KI kein einziges Foto mehr in diese Kategorie eingeordnet. Das jedenfalls hat das Technikmagazin "Wired" in einer Analyse herausgefunden. Google hat also nicht seinen Algorithmus optimiert, damit dieser schwarze Menschen von Gorillas unterscheiden kann, sondern die Erkennungsfunktion für die Primatengattung deaktiviert, um erratische Klassifikationen zu vermeiden.

Die Technik ist noch nicht weit genug, um vorurteilsfrei zu sein, also macht man sie blind. Diese ontologische Verengung, das bewusste Hinwegsehen über die gesellschaftliche Wirklichkeit war schon immer konstitutiv für den Konservatismus, gewissermaßen der blinde Fleck einer Theorie, die nun in Form von Datenstrukturen zurückkehrt. Man sieht eine Fehlentwicklung, die man nicht korrigieren kann, also baut man die Technik zurück - und lässt alles beim Alten.

Neue Handlungszwänge

Weizenbaum schreibt in seinem Werk "Die Macht der Computer und die Ohnmacht der Vernunft" (1976), dass der Computer ein Instrument sei, "das in den Dienst gezwungen wurde, um die konservativsten, ja reaktionärsten ideologischen Strömungen des gegenwärtigen Zeitgeistes zu rationalisieren, zu unterstützen und am Leben zu halten".

Damals wie heute wurde Technik in den Dienst autoritärer Systeme und Akteure gestellt. Die Frage ist nur, ob die Implementierung algorithmischer bzw. selbstlernender Systeme nicht zu gewissen Verkrustungen und Erstarrungen innerhalb der Gesellschaft führt, ob soziale Systeme ihre Fähigkeit zur Reproduktion und Selbsterneuerung verlieren, wenn Entwickler System- und Umweltgrenzen definieren (wie im Fall der illegalen Abschalteinrichtung von VW) - und immer wieder dieselben programmierten Kommunikationsereignisse stattfinden. Können sich Datenstrukturen von selbst weiterentwickeln? Kann ein maschinell lernender Algorithmus, der nach einem bestimmten Muster operiert, auch politisch lernen (etwa, indem er Sensibilitäten für Sprachregelungen entwickelt)?

Die Paradoxie der Digitalisierung besteht darin, dass sie nicht nur Muster in der Gesellschaft aufdeckt, sondern gleichsam neue Handlungsmuster hineinfräst, die neue Pfadabhängigkeiten und Handlungszwänge erzeugen. Die Algorithmisierung der Gesellschaft ist also gar kein so umstürzlerischer Vorgang, wie oft behauptet wird, sondern eine Stabilisierung des Sozialen, eine permanente Systemwiederherstellung, wo immer wieder dieselben Routinen und Prozesse ablaufen und Änderungen formal zurückgesetzt werden. Diejenigen, die die digitale Revolution proklamieren, wollen damit vor allem ihre eigenen Machtbereiche festigen.