Wien. Dem Wahrheitsgehalt von viral verbreiteter Information in sozialen Netzwerken will die MODUL University Vienna im Rahmen eines EU-Forschungsprojekts auf den Grund gehen. Dabei werden linguistische und graphische Methoden mit Technologien zur Big Data-Analyse kombiniert, die konkret zum Beispiel bei medizinischen Informationssystemen sowie im digitalen Journalismus zum Einsatz kommen sollen.

Soziale Netzwerke sind voll mit Inhalten, die sich unabhängig vom Wahrheitsgehalt rasend schnell verbreiten und enorme Konsequenzen nach sich ziehen können. Das schnelle Analysieren von solchen Inhalten hat sich darum das EU-Projekt "Pheme" zur Aufgabe gemacht, teilt die MODUL University Vienna, die daran gemeinsam mit drei Partnern aus England und weiteren aus Deutschland, der Schweiz, Bulgarien, Spanien sowie Kenia forscht, mit.


Links
Weiterführende Informationen unter www.modul.ac.at/nmt und www.weblyzard.com
wienerzeitung.at ist nicht verantwortlich für die Inhalte externer Internetseiten.

Nieser wird zur Pandemie
"Traditionelle Medien - ob digital oder analog - verlieren derzeit ihre Informationshoheit. Social Media-NutzerInnen übernehmen diese immer mehr und verbreiten Informationen in ungeahnter Geschwindigkeit. Da wird aus einer Mücke rasch auch mal ein Elefant - oder aus einem Nieser die Angst vor einer globalen Pandemie", wird der Leiter des Instituts für Neue Medientechnologie, Arno Scharl, in der Aussendung zitiert.

Solche als "Meme" bezeichneten Themen, die sich viral in Netzwerken verbreiten, würden Regierungen und Unternehmen zunehmend vor große Herausforderungen stellen. Um diesen zu begegnen, darf im Einzelfall wenig Zeit verloren werden - Zeit, die das Projekt "Pheme" zukünftig schaffen soll.

Vier Arten von "Gerüchten"
Das Team konzentriert sich demnach auf die Identifikation von vier Arten von fragwürdigen Wahrheiten oder sogenannten "Gerüchten": die Spekulation, die Kontroverse, die Missinformation und die Desinformation. Doch zu beurteilen, ob eine Information in eine dieser Kategorien fällt, sei gerade in Social Media ausgesprochen schwer. Denn hier hänge die Qualität der Information sehr stark von deren sozialem Kontext ab. Bisher konnte dieser Kontext noch nicht automatisiert erfasst und interpretiert werden.

Gelingen soll das nun in einem interdisziplinären Ansatz, bei dem Experten für Sprachtechnologien, Web Science, die Analyse sozialer Netzwerke sowie Informations-Visualisierung kooperieren. Gemeinsam nutzen die Wissenschafter drei Aspekte zur Analyse der Vertrauenswürdigkeit: zunächst die einem Dokument eigene - also lexikalische, semantische und syntaktische - Information. Diese wird dann mit Datenquellen vernetzt, die als besonders vertrauenswürdig gelten. Schließlich wird die Art der Verbreitung einer Information analysiert - wer erhält welche Information, und wie und wann wird diese an wen weitergesendet?

Tests in zwei Fallstudien
Die Ergebnisse des über drei Jahre laufenden Projekts werden laut der Privatuniversität in zwei konkreten Fallstudien getestet. Im Bereich medizinischer Informationssysteme soll unter anderem "Rumour Intelligence" geprüft werden - also die Fähigkeit, Gerüchte wie den Ausbruch einer hoch ansteckenden Erkrankung (z. B. Schweinegrippe) und deren Verbreitung frühzeitig zu identifizieren. Für den digitalen Journalismus will man gemeinsam mit der BBC und dem Südwestrundfunk Ergebnisse testen, die es erlauben sollen, die Glaubwürdigkeit User-generierten Contents zu verifizieren.