• vom 23.04.2018, 11:55 Uhr

Schule

Update: 26.04.2018, 15:53 Uhr

Schule 18/19

Der Krieg in den Köpfen




  • Artikel
  • Lesenswert (19)
  • Drucken
  • Leserbrief




Von Cathren Landsgesell

  • Es reicht nicht, zu wissen was Fake News sind. Sieben Gründe, warum die Schule sich mit dem Phänomen befassen sollte.



Fake News sind schnell: Sobald sich herausgestellt hatte, dass die Amokfahrt am 7. April im nordrheinwestfälischen Münster, bei dem zwei Menschen getötet und viele weitere zum Teil schwer verletzt wurden, von einem Deutschen verübt worden war, kursierte auf Facebook ein Posting, das eben dies in Frage stellte. Ein Facebook-Nutzer postete "stocksauer" das Bild eines dunkelhaarigen Mannes und schrieb dazu: "Hier ein Foto vom psychisch gestörten "deutschen" Jens, der für das Attentat in Münster verantwortlich ist. Was fällt euch dabei auf???" Recherchen von "Mimikama", einem Verein, der Internetmissbrauch aufklären will, ergaben, dass das Bild des dunkelhaarigen Mannes aus einer Sendung von "oe24" abfotografiert und bearbeitet worden war. Es zeigt nicht den Amokfahrer, sondern einen Ortskundigen, der von oe24 zu dem Thema am Abend des 7. April via Telefon zugeschaltet war.

Der Facebook-Account des Postings läuft unter dem Namen "Franck". Auch Mimikama konnte den Urheber bisher nicht identifizieren. Das Posting ging am 8. April mittags online und wurde innerhalb von wenigen Stunden mehr als 12.000 Mal geteilt. Es schürte die Idee, die Amokfahrt von Münster sei ein islamistischer Terrorakt gewesen und dies wiederum eine Tatsache, die von "den Medien" bzw. "der Polizei" unterdrückt würde. "Es wird verdreht, aus dem Kontext gerissen, gelogen – die Methoden sind ganz unterschiedlich", sagt Andre Wolf, Content-und Social Media Coordinator von Mimikama.

Information

Dieser Artikel ist als Teil unserer Bildungsbeilage "Schule 18/19" erschienen. Die komplette Beilage können Sie hier downloaden.

Weil Falschheiten 100.000-fach retweetet werden

Muss sich die Schule solchen Themen widmen? Wenn man nur die schlichte Anzahl falscher Meldungen betrachtet, scheint es sich um ein marginales Problem zu handeln.

Das Massachusetts Institute of Technology (MIT) hat im Zeitraum von 2006 bis 2017 rund 80.000 originale Tweets mit erfundenen Inhalten identifiziert. 80.000 Tweets in elf Jahren – das scheint nicht viel zu sein.

Das Problem mit den Fehlinformationen ist ein anderes. Und ein schwerer wiegendes, wie die Forscher herausfanden: Fake News verbreiten sich schneller und weiter im Netz als wahre Nachrichten. Falsche Behauptungen haben auf Twitter eine 70 Prozent höhere Wahrscheinlichkeit, geteilt zu werden. Sie erreichen sehr schnell sehr viele Menschen. Der Grund? Menschen bevorzugen falsche Nachrichten. "Im Gegensatz zu dem, was man allgemein annimmt, verbreiten Roboter falsche und wahre Inhalte in gleichem Ausmaß. Es sind Menschen, die besonders anfällig sind für Falschmeldungen", schreiben die MIT-Forscher im Wissenschaftsmagazin "Science" vom 9. März. In Zahlen heißt dies: Wahrheiten, egal zu welchem Thema, erreichen selten mehr als 1000 Retweets, Falschheiten aber zwischen 1000 und 100.000 solcher Retweets und dies in viel kürzerer Zeit. Einfach deshalb, weil wir sie offenbar lieber teilen. Eine weitere erschreckende Erkenntnis der Studie ist nämlich: Wir teilen besonders gern Fake News, die politisch sind und die Gefühle von Angst, Ekel oder Hass auslösen.

Weil soziale Medien kleines groß machen

"Franck" brauchte scheinbar einen halben Tag, um das vom Fernsehbildschirm abfotografierte Bild zu bearbeiten und mit dem dürftigen Text in Umlauf zu bringen. Den Rest erledigten die mehr als 12.000 anderen, die das Posting teilten.

Gibt es eine Typologie derjenigen, die besonders ansprechbar für Fake News sind? "Das kann man nicht so sagen", erklärt Andre Wolf. "Es haben nicht alle böse Absichten. Manche wollen sogar anderen Menschen helfen, indem sie die Nachrichten teilen. Sie wollen sie vor einer vermeintlichen Bedrohung warnen. Der weiße Lieferwagen, der durch Ortschaften fährt und Kinder entführt oder die HIV-infizierte Nadel bei Zapfsäulen: das ist alles falsch, aber Tausende teilen das, weil sie befürchten, es könnte ja doch was dran sein."

Der Verein Mimikama wurde 2011 gegründet und recherchiert auf Nachfrage von Internetnutzern den Wahrheitsgehalt von Meldungen, die im Netz kursieren. Darunter sind Gewinnspiele dubioser Herkunft, verschiedene Varianten von Urban Legends oder satirische Postings und Hoaxes ("Angela Merkel bald in Mutterschutz"). "Das ist alles vergleichsweise harmlos", so Wolf. "Bei politischen Themen wird es gefährlich, wenn tendenziöse Inhalte auf Vorurteile treffen. Gerade auf Social Media wirkt es dann nämlich so, als ob sehr viele Menschen zum Beispiel an der Identität von Jens R. (der Amokfahrer von Münster – Anmerk.) zweifeln."

Weil hassende Minderheiten stark werden

Das Posting des "stinksauren" "Franck" ist eigentlich ein Hassposting. Es soll ein bestimmtes Gefühl, in diesem Fall Wut, auf muslimische Menschen lenken. Facebook ist ein gutes Medium, um so etwas zu tun: "Facebook will, dass seine Nutzer möglichst viel Zeit auf der Plattform verbringen, weil sie dann mehr Werbeeinblendungen sehen und Facebook damit Geld verdient. Facebooks Algorithmus belohnt daher ‚Interaktion‘. Ein Thema, das maximal polarisiert, erzeugt mehr Streit, also mehr Kommentare als ein Thema, bei dem man sich schnell einig wird", sagt Philip Kreißel. Er ergänzt: "Emotionen wie Wut, aber auch Humor, führen zu deutlich mehr Interaktionen als sachliche Inhalte, wie zum Beispiel wissenschaftliche Fakten. Ich unterstelle Facebook keine bösen Absichten, ihr Geschäftsmodell hat aber negative Auswirkungen."

Kreißel ist IT-Experte und Teil der Facebook-Gruppe "#ichbinhier". Sie hat 37.000 Mitglieder und sich vorgenommen, der Hasskultur im Netz etwas entgegenzusetzen. Hass-Postings und Kommentare sollen ihrerseits nicht unkommentiert bleiben. Mitleser sollen sehen: Der Hass bleibt nicht unwidersprochen; es gibt Menschen, die anderes denken.

#ich bin hier adressiert mit dieser Strategie das Wesen von Social Media: Social Media lassen alles größer erscheinen, als es ist. In den Worten von Kreißel ist das generelle Problem mit Social Media wie folgt: "Ein kleiner Bruchteil der Nutzer kann koordiniert eine große Wirkung entfalten und damit den Eindruck erwecken, eine Mehrheit würde so denken."

Gemeinsam mit dem Londoner Institute for Strategic Dialogue hat Kreißel diesen Vergrößerungseffekt anhand von Facebook untersucht. Die Diskussionen auf Facebook mit Hassinhalten werden von fünf Prozent der Nutzer dort dominiert. Auf diese fünf Prozent gehen 50 Prozent der "Likes" bei Hass-Kommentaren zurück. Die hassende Minderheit ist klein und sehr aktiv.

"Das ist ganz typisch für Social Media und gilt auch für das Phänomen von Cybermobbing", sagt Beate Großegger, die in Wien das Institut für Jugendkulturforschung wissenschaftlich leitet. "Die Gruppe der Täter ist überschaubar, aber der Schaden ist riesengroß."

Weil Jugendliche keine Fakten-Checker sind

Unter Jugendlichen gilt Facebook derweil nicht besonders viel. Der Jugend-Internet-Monitor von "Saferinternet.at" stellt in seiner jüngsten Erhebung zur Mediennutzung von Jugendlichen fest, dass nur 52 Prozent der elf bis 17-jährigen Facebook regelmäßig nutzen. Das ist sehr wenig, verglichen mit den 85 Prozent von WhatsApp. Facebook gilt als "nicht wahnsinnig glaubwürdig", wie Beate Großegger sagt.

Überhaupt misstrauen Jugendliche dem Internet ganz generell. 86 Prozent sind sich nicht sicher, dass es stimmt, was sie im Netz lesen, sehen oder hören. Das stellt die Internetstudie von 2017 fest. Dieses Misstrauen ist teilweise selbst gemacht, wie Barbara Buchegger, Forscherin am Österreichischen Institut für Telekommunikation (ÖIAT) und Leiterin von Saferinternet.at, meint. Denn für aufwändigere Checks nehmen sich junge Menschen kaum Zeit: "Alles, was nicht sofort überprüft werden kann, gilt ebenso schnell als nicht überprüfbar."

Wenn Jugendliche sich über Politik informieren wollen, dann tun sie das in den sozialen Medien, obwohl sie Zeitung, Fernsehen und Radio für verlässlicher halten. Hinzu kommt: "Es ist eine sehr kleine Gruppe, die sich überhaupt für Politik interessiert", sagt Großegger. "Den meisten geht es um Lifestyle-Themen und Unterhaltung, wenn sie im Internet unterwegs sind."

Barbara Buchegger beobachtet, dass Jugendliche beginnen, sich von Social Media abzuwenden – weil sie sich kontrolliert fühlen: "Sie wollen eigentlich nicht überprüft werden; weder vom Staat, der Gesellschaft, ihren Eltern, noch von ihren Freunden." Jugendlichen seien die Schattenseiten der Digitalisierung sehr stark bewusst, meint auch Beate Großegger. "Sie möchten es gern anders haben, doch sie haben das Gefühl, sie können nicht aus. Es besteht ein gewisser Druck, auf Social Media zu sein."

Muss man sich also nun Sorgen machen oder nicht? Wenn Jugendliche Facebook eh nicht nutzen und sich gerade so viel für politische Themen interessieren, dass es sie misstrauisch macht? Andre Wolf von Mimikama macht sich um junge Menschen tatsächlich weniger Sorgen. Nach seinen Erfahrungen sind es eher die Babyboomer, die schlecht zurechtkommen in der Welt der Fake News und alternativen Fakten. "Was auf Facebook und Twitter diskutiert wird, erreicht Menschen zwischen elf und 17 Jahren häufig nicht."

Weil YouTube eine Radikalisierungsmaschine ist

Grund für Entwarnung ist das nicht. Denn Jugendliche sind gerne auf YouTube unterwegs – es ist ihre beliebteste Suchmaschine – , und  YouTube funktioniert ganz ähnlich wie Facebook. Nur noch perfider: Nicht nur empfiehlt das US-Videoportal im Autoplay bestimmte Videos. Der Algorithmus der Plattform ist so konstruiert, dass diese empfohlenen Videos immer noch etwas extremer sind, als die vorhergehenden. Wer sich Videos mit Donald Trump ansieht, dem werden schnell Videos der Ultrarechten empfohlen. Wer sich für vegetarisches Kochen interessiert, wird alsbald mit veganen Optionen konfrontiert.

Dank Artificial Intelligence kann YouTube, das Google gehört, seine Empfehlungen präzise individualisieren. Und das millionen- und milliardenfach. Für die Techniksoziologin Zeynep Tufekci von der Universität North Carolina ist YouTube daher die größte Radikalisiererin unter den sozialen Medien. "YouTube schickt die Zuschauer in den Kaninchenbau des Extremismus, während Google an den Anzeigenverkäufen verdient", schreibt sie in einem Kommentar in der New York Times.

Google verdient umso mehr, je länger wir in dem Kaninchenbau bleiben. Und das tun wir offenbar dann, wenn die Inhalte, die wir finden, immer noch eine Steigerung zu den vorhergehenden darstellen. Der Algorithmus kann politische Vorlieben entsprechend bedienen und ins Extreme steigern. "Youtube ist bei den Verschwörungstheorien ganz vorn mit dabei", sagt Andre Wolf.

Auch zu der Amokfahrt in Münster kursierten sehr schnell Verschwörungsvideos, manche davon aufbereitet wie Tutorials. Deren These: Es waren doch arabische Terroristen. Nicht selten hatten diese Videos ein wiederkehrendes Motiv. Das Autokennzeichen eines Autos in der Nähe des Tatorts: MSNY-9011. Andre Wolf muss unwillkürlich darüber lachen. Ein schierer Wiedererkennungseffekt. Dieses Autokennzeichnen wird nämlich in schöner Regelmäßigkeit in Verschwörungsvideos verwendet – nur jeweils mit einer anderen Stadt. Hier wird Münster mit New York (NY) und dem Anschlag auf das World Trade Center am 11.9.2001 gleichgesetzt. Andre Wolf kennt es nur zu gut: "25.401 Aufrufe seit gestern", sagt er schließlich. "Das ist viel. Und viele Kommentare: 251. Alles über 20 Kommentaren ist ganz gut."

Weil Fake News polarisieren

Seltsame Kennzeichen, obskure Tutorials, fadenscheinige Facebook-Postings – glaubt das denn irgendjemand wirklich? Sophie Lecheler, Kommunikationswissenschaftlerin an der Universität Wien verweist auf einen Aspekt der Fake News-Debatte, der oftmals übersehen wird: "Fake News untergraben das Vertrauen in die etablierten Medien, indem diese mit dem Label pauschal als unglaubwürdig verunglimpft werden." Ein Beispiel aus Österreich ist die Behauptung des Vizekanzlers Heinz-Christian Strache auf Facebook, der ORF verbreite Fake News: "Es gibt einen Ort, an dem Lügen zu Nachrichten werden. Das ist der ORF", hieß es in dem Post von Strache. "Dass Parteien und Politiker dieses Label nutzen, um Medien als unglaubwürdig darzustellen, kommt immer häufiger vor, nicht zuletzt beim US-Präsidenten Donald Trump", so Lecheler. "Das beschädigt die Demokratie. Denn es bedeutet nichts anderes, als dass man sagt, Medien gehören nicht zum politischen System."

Es scheint auch nicht auf den Wahrheitsgehalt anzukommen. Hauptsache, das Gefühl stimmt. "Auch wenn es jetzt momentan nicht gestimmt hat, es ist doch eine Meldung, die passieren kann. Wenn nicht heute oder morgen, dann vielleicht in einem halben Jahr", antwortet eine Facebook-Userin der Journalistin Ingrid Brodnig auf die Frage, ob es sie ärgere, dass sie eine Meldung verbreitet hatte, die sich dann als falsch herausstellte. Das Buch "Lügen im Netz" von Ingrid Brodnig ist soeben in einer aktualisierten Neuauflage erschienen.

Julia Ebner vom Institute for Strategic Dialogue – das Institut, das die Analyse mit Philip Kreißel gemacht hat – hat sich länger mit Extremismen auseinandergesetzt. Sie hat rechten und islamistischen Extremismus untersucht und versucht, herauszufinden, was beiden gemeinsam ist und was sie so erfolgreich macht. Unter anderem konnte sie eine Strategie identifizieren: "Eine Strategie von Extremisten besteht darin, den gesamten Wahrheitsbegriff zu entwerten. Fakten werden als parteiisch, als Teil des korrupten Systems und von den Eliten gesteuert hingestellt", schreibt sie in ihrem Buch "Wut. Was Islamisten und Rechtsextreme mit uns machen".

Die sozialen Medien machen es Extremisten nicht nur leicht, ihre Zielgruppen zu identifizieren und maßgeschneidert zu bedienen: "Die meisten Forscher sind sich darin einig, dass rechtsextreme und islamistische Gruppen sowohl einen gemeinsamen Feind, das ‚Establishment‘, als auch eine gemeinsame Zielgruppe, Jugendliche ohne Perspektiven, haben", so Ebner.

Ein weiteres Problem: Wenn wir Posts zu sehen bekommen, wissen wir nicht warum. "Die User haben keine Möglichkeit, das zu erkennen", sagt Philip Kreißel. Wenn wir auf Facebook oder ouTube sind, wissen wir nicht nur nicht, warum wir etwas sehen, wir wissen natürlich auch nicht, was wir nicht sehen. Und wir wissen nicht, was die anderen sehen. Auch wenn es so aussieht, als sei Facebook für alle gleich – es ist es nicht.

Die sozialen Medien verstärken so eine Polarisierung, die ohnedies bereits stattfindet, auch unter Jugendlichen. "Jugendliche sind ja keine homogene Gruppe", sagt Beate Großegger. Die Jugendforscherin beobachtet, dass die Milieus von bildungsnahen und bildungsfernen Schichten immer weiter auseinanderdriften. "Es kommt zu einer Spaltung. Die Privilegierteren sind migrationsoptimistisch und kosmopolitisch, während die anderen sich auf der Verliererseite wähnen und finden, dass die Politik nichts für sie tut. Da haben wir dann den Rechtspopulismus und die offen deklarierte Ausländerfeindlichkeit."

Man kann sich gut vorstellen, was passiert, wenn die Algorithmen noch besser funktionieren und jede dieser Gruppen passgenau je nach politischem Profil angesprochen wird. In der AI-verstärkten Filterblase gibt es keine Öffentlichkeit: "Social Media verstärkt die Isolation. Mit anderen Weltanschauungen kommt man nicht in Kontakt, und man lernt auch nicht, in einem demokratischen Kontext damit umzugehen", sagt Großegger.

Weil man etwas dagegen tun kann

Was kann die Schule tun? "Wenn es geht, sollte man tagesaktuell über die Themen sprechen, die im Netz Konjunktur haben. Dann kann man sie prüfen und hinterfragen, was glaubwürdig ist und was nicht. Lehrer können ein Korrektiv sein", empfiehlt Andre Wolf.

Um Filterblasen zu verhindern, rät Philip Kreißel davon ab, "Menschen zu entfreunden, nur weil sie politisch eine andere Meinung vertreten." Facebook wäre darüber hinaus technisch in der Lage, Posts von politisch unterschiedlich denkenden Menschen stärker zu promoten, sagt er. "Ganz wichtig ist es hier ein ‚Security Mindset‘ zu entwickeln, also zu fragen, was ein ‚bösartiger Nutzer‘ für Schäden anrichten könnte. Das muss interdisziplinär geschehen. Es reicht nicht, sich gegen Hacker-Attacken zu verteidigen, wenn ‚Hasskommentar-Attacken‘ beim Opfer psychischen Schmerz verursachen können."

Warum ist das wichtig? Julia Ebner skizziert ein martialisches Bild: "Wer über die bessere Armee verfügt, mag die Schlacht gewinnen, aber wer über die bessere Geschichte verfügt, der gewinnt den Krieg. Und zwar deshalb, weil die letzte Schlacht, die den Krieg entscheidet, nicht auf einer physischen Ebene stattfindet, sondern in unseren Köpfen."





Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)


Dokumenten Information
Copyright © Wiener Zeitung Online 2018
Dokument erstellt am 2018-04-23 11:56:05
Letzte Änderung am 2018-04-26 15:53:58


Beliebte Inhalte

Meistgelesen
  1. "Wir sind in der Realität angekommen"
  2. Mehr Geld für WU und Linzer JKU
  3. Orientierung im Bildungsdschungel
Meistkommentiert
  1. Orientierung im Bildungsdschungel

Werbung




Werbung