• vom 16.06.2017, 11:54 Uhr

Digital-Life

Update: 16.06.2017, 12:04 Uhr

Extremismus

Facebook sucht Terrorinhalte auch mit künstlicher Intelligenz




  • Artikel
  • Lesenswert (1)
  • Drucken
  • Leserbrief




Von WZ Online, APA, dpa

  • Ganz ohne Menschen geht es aber in Zeiten der Digitalisierung auch nicht.

Vor allem in Europa stieg zuletzt der politische Druck auf Facebook und andere Online-Dienste, härter gegen terroristische Inhalte vorzugehen. - © APAweb/AP, Matt Rourke

Vor allem in Europa stieg zuletzt der politische Druck auf Facebook und andere Online-Dienste, härter gegen terroristische Inhalte vorzugehen. © APAweb/AP, Matt Rourke

Menlo Park. Facebook setzt künstliche Intelligenz ein, um terroristische Inhalte auf seiner Plattform zu entdecken. Dabei gehe es unter anderem darum, bereits bekannte Bilder und Videos beim erneuten Hochladen zu stoppen, erklärte die zuständige Facebook-Managerin Monika Bickert in einem Blogeintrag am Donnerstag.

Zugleich experimentiere das weltgrößte Online-Netzwerk aber auch mit Software, die automatisch eine terroristische Einstellung in Texten erkennen solle. Aktuell würden dafür Einträge ausgewertet, die wegen der Unterstützung von Terror-Organisationen wie Isis oder Al-Kaida bereits gelöscht wurden. Mit den Ergebnissen dieser Analyse wird ein Algorithmus gefüttert, der gerade lerne, Posts mit solcher Ausrichtung selbst zu erkennen. Neben Englisch laufe die Arbeit auch in weiteren Sprachen, auch aus dem arabischen Raum, sagte Bickert.

"Wir wollen terroristische Inhalte sofort entdecken, bevor Menschen in unserer Community sie zu sehen bekommen", betonte die Managerin, die zuvor unter anderem Staatsanwältin in den USA war. Inzwischen werde mehr als die Hälfte der wegen Terror-Propaganda gelöschten Facebook-Accounts vom Netzwerk selbst entdeckt, betonte sie. Normalerweise ist Facebook auf Hinweise von Nutzern auf illegale oder beim Netzwerk untersagte Inhalte angewiesen. Eine Ausnahme ist Kinderpornografie, gegen die unter anderem mit automatisierter Software gekämpft wird.

"Auch wenn unsere Software immer besser wird, hängt sehr viel auch vom Kontext ab", schränkte Bickert ein. Wenn zum Beispiel in einem Video Isis-Symbole zu sehen seien, könne es um Terror-Propaganda oder auch aber einen Nachrichtenbeitrag handeln. Hier seien im Moment Entscheidungen von Menschen unverzichtbar.

Vor allem in Europa stieg zuletzt der politische Druck auf Facebook und andere Online-Dienste, härter gegen terroristische Inhalte vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte - und die großen Internetunternehmen ließen dies zu.

Werbung



Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)


Dokumenten Information
Copyright © Wiener Zeitung Online 2017
Dokument erstellt am 2017-06-16 11:55:06
Letzte nderung am 2017-06-16 12:04:06



Werbung




Werbung


Werbung