Hinweis: Der Inhalt dieser Seite wurde vor 3 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Vor wenigen Tagen sorgte Apple mit einer Ankündigung für Diskussionen. Man wolle in Zukunft die Fotos direkt am iPhone auf pädophile Inhalte scannen. Schon jetzt scannen zahlreiche Anbieter Inhalte von Kunden, die auf ihren Servern liegen. Auch der Kampf gegen Kinderpornografie und Missbrauch in allen Formen ist notwendig. Also wo ist eigentlich das Problem?
Mehr als 90 Menschen- und Bürgerrechtsorganisationen verschiedener Länder haben Apple in einem offenen Brief dazu aufgefordert, von der Einführung der angekündigten Kinderschutzfunktionen abzusehen. Apples Funktion "legt ein Fundament für Zensur, Überwachung und Verfolgung auf globaler Ebene". Das lokale Scannen auf Nacktinhalte durch Apples Messenger - mitsamt der möglichen Benachrichtigung der Eltern - bedrohe die Sicherheit - etwa von LGBTQ+- Kindern. Algorithmen zur Erkennung von Nacktinhalten seien "notorisch unzuverlässig" und könnten irrtümlich etwa bei Kunst, Gesundheitsinformationen und Bildungsressourcen anschlagen - und somit die Rechte von Kindern beschneiden. Es würde so ein Tor für weitere Überwachung geöffnet.
Das Versenden von Nacktbildern und die Erweiterung des Sexuallebens auf digitale Plattformen, gerade im Lockdown, stieg an. Digitaler Sex mit Freiwilligkeit, Respekt und Vertrauen trifft auf Ausbeutung, Missbrauch, Erpressung und Zwang. Und eine Lösung dieses Dilemmas scheint noch nicht gefunden.