Es standen noch nie so viele Informationen zur Verfügung wie heute. Aber die algorithmischen Prozeduren, die unser Wissen strukturieren, spielen sich im Verborgenen ab.
Hinweis: Der Inhalt dieser Seite wurde vor 7 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Vor fünf Jahren, als die Piraten einen Höhenflug erlebten und die Enthüllungsplattform WikiLeaks mit dem moralischen Überschuss der Gerechten eine Depesche nach der anderen ans grelle Licht der Öffentlichkeit zerrte, glaubten die Netzaktivisten, dass man mit radikaler Transparenz die Arcana Imperii ausleuchten und die Hinterzimmerpolitik ein für alle Mal beenden könnte. Dieses Denken ist in eine ideologische Sackgasse geraten: WikiLeaks-Gründer Julian Assange sitzt seit fünf Jahren in der ecuadorianischen Botschaft in London fest, seine Plattform steht im Verdacht, Material zu selektieren, und der Offenheitsgedanke ist in eine "Tyrannei der Transparenz" gemündet. Als wäre es ein Treppenwitz der Geschichte, sind durch die Digitalisierung neue Arkana entstanden: In Googles PageRank-Algorithmus etwa wird unter Ausschluss der Öffentlichkeit bestimmt, wo die Grenzen der Meinungsfreiheit determiniert werden - und damit Herrschaft ausgeübt wird.
Dass Algorithmen opak sind, gehört mittlerweile zum Cantus firmus der Technologiekritik. Die deutsche Bundeskanzlerin Angela Merkel reihte sich in den Chor der Kritiker ein und meinte bei den Münchner Medientagen: "Ich persönlich bin auch der Meinung, dass Algorithmen transparenter sein müssen, sodass interessierten Bürgern auch bewusst ist, was eigentlich mit ihrem Medienverhalten und dem anderer passiert."
Google begegnet den Forderungen nach mehr Transparenz mit dem antiaufklärerischen Argument, dass die Offenlegung des Algorithmus, der ein Betriebsgeheimnis ist, zu einem informationellen Kollaps führen würde. Spammer würden die Trefferlisten mit Müll fluten, die Nutzer würden kaum noch finden, wonach sie suchen.
Digitale Mündel
Dass Google wie auch Facebook Fake-News mit einer Software filtern wollen, offenbart nicht nur ein recht naives Verständnis von Wahrheit - als gäbe es "die eine" Wahrheit -, sondern auch ein mathematisch-reduktionistisches Verständnis der Wirklichkeit. Algorithmen sind nicht die Lösung, sondern die Ursache des Pro-blems. Erst die Automatisierung der Nachrichtenlese hat die Schleusen für Fake-News geöffnet.
"Wahr ist, was die meisten Augäpfel produziert", konstatiert der Internetkritiker Evgeny Morozov mit beißendem Spott. Man könnte auch formulieren: Wahr ist, was viral ist. Googles selbst erklärtes Ziel, "die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen", erscheint heute wie eine Chimäre, wie ein abgeschmackter Werbeslogan.
Das Wissen der Welt ist zwar mit einem Mausklick abrufbar, doch die algorithmischen Autoritäten behandeln die Nutzer wie digitale Mündel, indem sie ihnen nur informationelles Fast-Food ohne Verweis auf die Herkunft der Zutaten kredenzen.
Der niederländisch-australische Medientheoretiker Geert Lovink hat nun in einem hysterisch überdrehten Essay ("Overcoming Internet Disillusionment: On the Principles of Meme Design") für das Journal "e-flux" seine Ernüchterung zum Ausdruck gebracht. "Einmal mehr bringt Aufklärung (enlightenment) nicht Befreiung, sondern Depression. Die einst wundervolle Aura, die unsere geliebten Apps, Blogs und sozialen Medien umgab, ist verflogen. Wischen, teilen und liken fühlen sich mittlerweile wie seelenlose Routinen, leere Gesten an."
Lovinks Aufsatz liest sich wie eine Generalabrechnung mit dem großen Freiheitsversprechen der Tech-Konzerne. Doch was mehr verblüfft, ist dieser wuchtige Satz, dass er, der Intellektuelle, der sich als Vertreter der digitalen Avantgarde versteht, vom Glauben an die aufklärerische Kraft des Internets abgefallen ist.
Lovink argumentiert mit Baudrillard, dass wir im Zeitalter von sozialen Netzwerken in einer Hyperrealität lebten, in der Filmszenarios und ihre Affekte die großen Entwürfe technologischer Gesellschaften formten. Er schreibt: "Um es in räumliche Begriffe zu bringen: Der Cyberspace hat sich als ein Raum entpuppt, der ein Haus mit einer Stadt enthält, die in eine flache Landschaft zusammengebrochen ist, wo sich die kreierte Transparenz in Paranoia verwandelt. Wir sind nicht in einem Labyrinth verloren, sondern ins Offene, Beobachtete und Manipulierte hineingeworfen, ohne einen Kontrollturm in Sicht."
Es ist vielleicht dieses Hineingeworfensein in die Welt von Blogs, Foren, Unterforen und Emoji-strotzenden Facebook-Feeds, das Nutzer empfänglich für "alternative" Fakten bzw. Erzählungen werden lässt. Vor allem, weil man diese selbst kreiert. Der Wandel vom kritischen Konsumenten zum kritischen Produzenten und die damit einhergehende Erosion der Schleusenwärter habe einen Preis, nämlich die "Infla-
tion der Information", schreibt Lovink. Es ist schon paradox: Noch nie gab es so viele frei verfügbare Informationen, noch nie war die Demokratisierung des Wissens, die ja ein Hautpanliegen der Aufklärung war, so weit vorangeschritten. Und doch ist die Suche nach der Wahrheit schwer wie nie, weil sich jeder im Besitz derselben wähnt und sein eigenes erkenntnistheoretisches Gebäude zimmert.
Ablehnung von Fakten
Seit Trumps Wahl zum US-Präsidenten gibt es eine Debatte darüber, ob die Postmoderne, deren Maxime lautete, es gebe keine Wahrheit, sondern nur Positionen und Standpunkte, den Boden für das angeblich postfaktische Zeitalter bereitet habe. Fake-News seien nur ein anderer Name für die Postmoderne, schrieb Victor Davis Hanson in einem Beitrag für die renommierte "Hoover Institution". Indem das weiße, männliche und reaktionäre Establishment fiktive Regeln über absolute Wahrheiten statuiert habe, sei der Rest der Gesellschaft in "verzerrte und kapriziöse Begriffe sich gegenseitig diskriminierender Narrative" getrieben worden. Foucault und Derrida hätten den Nietzscheanischen Gedanken der Ablehnung von Fakten reanimiert. Der postmoderne Denker Richard Rorty berief sich auf Nietzsches Diktum, wonach Wahrheit nichts weiter sei als ein "bewegliches Heer von Metaphern".
Die Diskussion verkennt, dass das Faktische schon immer die Ausnahme war. Fritz Breithaupt und Martin Kolmar schreiben im "Kursbuch" Nr. 189 ("Lauter Lügen") unter der Überschrift "Fakten oder Faketen - Eine Geschichte postfaktischer Autoritäten": "Wir waren in einem bestimmten Sinne immer Anhänger einer gefühlten Wahrheit, die sich eher weniger als mehr mit dem deckt, was die Wissenschaft oder Autoritäten als Konsens anerkennen." Als empirischer Beleg genügt ein Blick in die Gazetten.
WikiLeaks-Gründer Assange hat 2014 ein sehr lesenswertes Buch veröffentlicht ("When Google Met WikiLeaks"), in dessen Zen-trum ein Gespräch zwischen ihm und Google-Gründer Eric Schmidt steht. Der Diskussion vorangestellt ist ein sehr luzider Essay Assanges, in dem er Googles alten Wahlspruch "Don’t be evil" als Mythos dekonstruiert und aufzeigt, dass Google die Ambition hat, einen Mikrostaat zu gründen, in dem der Tech-Konzern von nationalen Gesetzen befreit ist.
Das Gespräch kommt recht manichäisch daher: Hier der gute Assange, der mit radikalaufklärerischem Impetus unredigierte Dokumente publiziert, dort der böse Dunkelmann Schmidt, der mit den Geheimdiensten im Bunde steht. Assange meint ironisch, er hätte nichts gegen einen "Google-Leak", was ein interessantes Gedankenexperiment ist, sich in der Praxis aber wohl eher als ein babylonisches Unterfangen entpuppen würde. Schmidt glaubt weniger an die Macht der Wahrheit als an die Macht der Maschinen. Googles Version der Wahrheit ist ein algorithmisches Ranking. Nach dem Motto: Man muss nur so lange Daten sammeln, bis sich ein Wahrheitskern herausschält.
Es gibt eine interessante Stelle in dem Buch, wo es um die Verifizierung und Herkunft der Quellen geht. Assange sagt mit einem Anflug von Absolutheit: "Wenn es wahre Informationen sind, ist es uns egal, woher sie kommen." Und später: " . . . wir verifizieren Dokumente, nicht die Fakten." Das zeigt, dass es Assange in seinem Ermittlungseifer gar nicht um die Wahrheitssuche geht, sondern lediglich um die Authentizität der geleakten Dokumente.
Die Aktualität des Buchs liegt darin, dass hier Wahrheit zunehmend eine Frage politischer Opportunität ist. Wenn Assange von einer "vibrierenden Hackerszene" in Russland schwärmt, hat das natürlich ein gewisses Odium.
Das Problem ist jedoch, dass Organisationen wie Google oder WikiLeaks die Nachrichtenwelt im Netz immer mehr strukturieren und als Gatekeeper autoritativ bestimmen, was Eingang in das Informationssystem findet und was nicht. Etwas abstrakt formuliert: Google und WikiLeaks entscheiden über die Existenz von Information und Nichtinformation. Denn dafür, dass eine Information ihren Leser erreicht und damit erst zur Information wird, braucht es im Netz Aggregatoren.
Die Black Box
Die Privatheit von Googles Algorithmus, schreibt der Mathematiker Jeremy Kun, sei wie ein streng geheimes Regierungsdokument. Das Beispiel WikiLeaks lehrt hingegen, dass auch das Veröffentlichen geheimer, redaktionell nicht bearbeiteter Informationen nicht unbedingt der Aufklärung dient und dass die geopolitischen Interessen, die dabei im Spiele sind, im Dunkeln bleiben.
Eine aufgeklärte Wissensgesellschaft muss sich jedenfalls daran stören, dass das Wissen in einer Black Box von Programmierern organisiert wird. Dass Googles Vervollständigungsmechanismus "AutoComplete" zum Teil verleumderische Begriffe ergänzt und Fragen wie "did the holocaust happen?" ganz oben in der Trefferliste auftauchen, ist eher antiaufklärerisch.
Der Soziologe Steffen Mau beschreibt in seinem Buch "Das metrische Wir", wie Tech-Konzerne durch Verdatungsregime und algorithmische Prozeduren eine Herrschaft durch die Hintertür etablieren. "Sehr gezielt und geschickt wird der Schleier des Opaken und des rein Technischen genutzt, um Marktmacht zu sichern und die eigene Entscheidungsfreiheit nicht durch die Öffentlichkeit beschneiden zu lassen." Es gehört zu den verstörendsten Umständen der Wissensgesellschaft, dass die Demokratisierung von Informationen, zu der Google fraglos beigetragen hat, nur unter der Prämisse algorithmischer Intransparenz funktioniert.
Literaturhinweis:
Steffen Mau: Das metrische Wir. Über die Quantifizierung des Sozialen. Suhrkamp Verlag, Berlin 2017, 308 Seiten, 18,50 Euro.
Adrian Lobe, geboren 1988, schreibt als freier Journalist für diverse Medien im deutschsprachigen Raum (u.a. "FAZ", "NZZ" und "Wiener Zeitung").