Gewaltvideos, Hass-Postings, Fake-Nachrichten gegen die "Lügenpresse" und die Inanspruchnahme einer Glaubwürdigkeit in postfaktischen Zeiten - die Liste an Vorwürfen gegen Soziale Netzwerke wird jeden Tag länger. Nun sollen die News-Aggregatoren mit ihren Algorithmen auch noch Wahlen beeinflussen und der Demokratie einen Bärendienst erweisen.

In der vergangenen Woche nahm Facebook-Gründer Mark Zuckerberg zu den Vorwürfen an die Sozialen Netzwerke rund um die Wahl von Donald Trump Stellung: "Ich persönlich halte es für eine ziemlich verrückte Idee, dass falsche News auf Facebook, die nur einen sehr geringen Anteil der Inhalte ausmachen, die Wahl auf irgendeine Weise beeinflusst haben könnten." Die Wähler würden doch eigenständig auf Grundlage ihrer Lebenserfahrung entscheiden. Damit schien die Sache erledigt. Doch gut 72 Stunden später sieht die Welt in der schnelllebigen IT-Branche schon wieder anders aus. Sowohl Facebook als auch Google wollen Profiteuren des Trends den Geldhahn zudrehen. Seiten, die falsche Inhalte verbreiten, fliegen aus den Werbeplattformen raus.

Ein lukratives Geschäft

Zuvor konnte die Verbreitung auffälliger falscher Nachrichten gerade im Wahlkampf ein lukratives Geschäft sein, weil Nutzer auf die Links klickten und jeder Klick den Inhalte-Anbietern Geld brachte. Mit den nun veröffentlichten neuen Werberichtlinien wollen Google und Facebook den Sumpf an Falschnachrichten trockenlegen. Bei Facebooks Werberichtlinien heißt es nun ausdrücklich: "Wir zeigen keine Werbung in Apps oder Seiten mit illegalen, betrügerischen oder irreführenden Inhalten. Das inkludiert Fake-Nachrichten." Google wiederum startete eine Richtlinie, mit der man Seiten mit falsch dargestellten Inhalten von der Nutzung des Werbenetzwerkes AdSense ausschließen will: "Wir bewegen uns vorwärts und beschränken Werbeeinschaltungen auf Seiten, die Informationen über den Verbreiter, den Inhalt und den vorrangigen Zweck der Webseite verdrehen, falsch darstellen oder verschleiern", teilte Google mit. Beide US-Konzerne wollen aber die Inhalte selbst nicht angreifen. So kündigte Google weder Eingriffe in Suchergebnissen noch eine Anpassung des Algorithmus an.

Auf die generelle Kritik an den Algorithmen und vorsortierten Nachrichtenströmen wollte Zuckerberg nicht reagieren. Es gäbe keine Filterblasen im Sozialen Netzwerk, die dazu führen würden, dass Anwender nur zu sehen bekämen, was zu ihren Ansichten passen und diese damit nur weiter verfestigen. Eine im vergangenen Jahr veröffentlichte Studie von Facebook zeigte allerdings, dass Nutzer sehr viel seltener auf Überschriften klicken, die nicht mit ihrer Meinung übereinstimmen. Dies sei allerdings weniger ein technologischer "Fehler", sondern eine menschliche Eigenheit, meinte Zuckerberg. "Menschen neigen dazu, Dinge auszublenden, die nicht zur eigenen Weltsicht passten. Ich weiß nicht, was man dagegen unternehmen kann."

Gewalt, Hass und Neal Turner

Da weder Facebook noch Google in Inhalte eingreifen wollen, bleiben große Themen derzeit noch ungelöst. Zum einen Hass-Postings: Hier wird die Verantwortung weiterhin auf die Administratoren und Seiten-Betreiber abgeschoben. Die nun aufgefundenen Gewaltvideos zeigen, dass hier noch ein ganzes Stück Arbeit zu bewältigen ist. Auch das Thema "Neal Turner" muss gesellschaftspolitisch diskutiert werden. Dieser Twitter-Bot, ein automatisiertes Tool, war einer der glühendsten Fans von Donald Trump im Wahlkampf und verbreitete dessen Meinung auf Twitter - 24 Stunden ohne Pause.

Er war nur einer von ein paar Millionen falscher Twitter-Nutzer, die mit Lebenslauf und Profilbild ausgestattet, dem Rest der Twitteria einen echten Menschen vorgaukeln sollten. Experten erwarten den Einsatz dieser "Roboter" auch in den kommenden Wahlkämpfen in Europa. Eine Gegenstrategie oder gar ein Verbot ist derzeit nicht auszumachen.