Zum Hauptinhalt springen

Öffnet die Black Box!

Von Adrian Lobe

Gastkommentare
Adrian Lobe hat Politik- und Rechtswissenschaft in Tübingen, Paris und Heidelberg studiert und ist freier Journalist in Stuttgart.

Online-Konzerne nehmen immer mehr Einfluss auf die politische Willensbildung, entziehen sich aber demokratischer Kontrolle. Das ist gefährlich.


Facebook ist mit 1,3 Milliarden Nutzern sozusagen die größte Tageszeitung der Welt. Fast jeder dritte Amerikaner konsumiert Nachrichten über Facebook. Der Internetkonzern besitzt eine gewaltige Medienmacht. Wenn Facebook an seinen Algorithmen dreht, dann hat das maßgeblichen Einfluss auf den Traffic von Nachrichtenseiten in aller Welt. Für Verleger, schrieb der inzwischen verstorbene Medienjournalist David Carr in der "New York Times", sei Facebook so etwas wie "der große Hund, der im Park auf einen zurennt". Man wisse nicht, ob er nur spielen oder einen beißen wolle. Fakt ist: Facebook bestimmt, was in der öffentlichen Diskussion relevant ist.

Im Sommer des Vorjahres verfolgte die Soziologin und Bloggerin Zeynep Tufekci die Unruhen in der US-Stadt Ferguson, wo ein weißer Polizist einen Schwarzen erschossen hatte. Während ihre Twitter-Feeds vor Berichten überquollen, las sie auf ihrem Facebook-Profil nichts von den Protesten - obwohl sie auch mehrere Nachrichtenseiten geliked hatte. Stattdessen zeigte Facebook ihr Videos und Einladungen zur "Ice Bucket Challenge". Erst am nächsten Tag erfuhr sie auch auf Facebook von den Ereignissen. Der Aufruhr war wohl nicht relevant genug.

Die Facebook-Algorithmen bestimmten autoritativ, was Tufekci zu interessieren habe. Auch auf Twitter war die Informationslage verzerrt. Zwar poppten massenhaft Tweets über die Proteste in Ferguson auf, #Ferguson erschien jedoch nicht im "Twitter Trend". Das Thema war offenkundig nicht "trendig" genug.

Tufekci erhob den Vorwurf der "algorithmischen Zensur". Man muss gar nicht so weit gehen, dass Facebook und Twitter algorithmische Zensur betreiben, was suggeriert, dass sie absichtsvoll Inhalte filtern.

Fakt ist, dass soziale Netzwerke die Realität verzerrt wiedergeben. Und das hat Folgen für die politische Kultur und den Diskurs. Es ist ja nicht so, dass die Algorithmen wie bei Amazon uns einfach Produkte präsentieren, die unseren Präferenzen entsprechen. Soziale Netzwerke sind ein konstitutives Element der politischen Willensbildung, mithin ein wichtiges Partizipationsinstrument.

Voriges Jahr manipulierte Facebook die News-Feeds von 700.000 Nutzern, um zu sehen, wie verschiedene Arten von Nachrichten die Stimmungslage der Nutzer beeinflussen. Am 2. November 2010, dem Tag der Kongresswahl, führten Forscher auf Facebook ein Experiment durch: Sie schickten 61 Millionen zufällig ausgewählten Facebook-Nutzern eine Nachricht, die an den Wahltag erinnerte und anzeigte, welche Freunde bereits abgestimmt hatten. Man stelle sich nun vor, Facebook hätte die Sichtbarkeit des "I voted"-Buttons auf Grundlage der Parteizugehörigkeit oder anderer Variablen wie Postleitzahl, favorisierten Links oder Ähnlichem manipuliert. Es hätte den Effekt, dass es Wähler in eine Richtung kanalisieren würde.

Die Newsfeed-Algorithmen von Facebook determinieren nicht nur, was relevant ist, sondern steuern - ganz subtil - die Wahlpräferenzen der Nutzer mit. Das klingt unheimlich und ist es auch. Die Algorithmen müssen einer öffentlichen Überprüfbarkeit zugeführt werden, sonst wächst Facebook eine Macht zu, die geeignet ist, unsere Demokratie zu unterminieren.