Böse Zungen behaupten ja, dass das größte Problem an der künstlichen Intelligenz jenes ist, dass immer noch der menschliche Einfluss vorhanden ist. Besonders drastisch zeigt sich diese Problematik an den aktuellen Themen "Deepfake" beziehungsweise "Deepnude".

Die Deepnude-App verschwand 2019, ihr Erbe sorgt noch immer für Ärger. - © apaweb /afp, romero
Die Deepnude-App verschwand 2019, ihr Erbe sorgt noch immer für Ärger. - © apaweb /afp, romero

Es handelt sich dabei um computergenerierte Bilder oder Videos, die täuschend echt aussehen, aber manipuliert sind. Bei Deepfake werden etwa in Echtzeit Lippenbewegungen synchronisiert, so können im wahrsten Sinn des Wortes einer Person Worte in den Mund gelegt werden, Deepnude wiederum bezeichnet die Erstellung von Nacktbildern oder Pornovideos durch künstliche Intelligenz. In beiden Fällen gibt es leider wenig sinnvolle Anwendungen - am ehesten im Bereich des Filmbusiness und der Erwachsenenunterhaltung, aber viele Möglichkeiten zum Missbrauch und Schindluder. Wie nun auch eine aktuelle Studie der Sicherheitsfirma Sensity belegt. Die Experten haben ein Deepfake-Ökosystem auf der Messenger-Plattform Telegram entdeckt, das auf Anfrage gefälschte Nacktbilder von Frauen erzeugt. Über 100.000 solcher künstlichen Fotos sollen demnach bis Ende Juli in den entsprechenden Telegram-Gruppen veröffentlicht worden sein. Die Dunkelziffer dürfte deutlich höher sein.

Der Anfang vom Ende

Bereits im Jahr 2019 veröffentlichte eine Firma ein Tool namens "Deepnude" im Internet, das innerhalb weniger Wochen für Schlagzeilen sorgte. Hunderttausende Nutzer luden Fotos von Frauen hoch und ließen sich von der Software Nacktfotos anfertigen. Schon damals häuften sich Meldungen von Erpressungsversuchen, Missbrauch und anderen illegalen Handlungen mit den computergenerierten Bildern. Wenige Monate nach dem Schritt an die Öffentlichkeit erklärten daher die Entwickler, dass sie ihr Tool wieder vom Markt nehmen. In dem damals veröffentlichten Statement hieß es: "Trotz unserer Sicherheitsmaßnahmen (Wasserzeichen), ist, wenn 500.000 Menschen unsere Software nutzen, die Wahrscheinlichkeit für Missbrauch einfach zu hoch. So wollen wir kein Geld machen. Es werden sicherlich Kopien von Deepnude im Netz auftauchen, wir wollen aber nicht diejenigen sein, die sie verkaufen."

Die Befürchtungen der Entwickler dürften sich demnach bewahrheitet haben und die Software machte sich selbständig und bekam Nachfolger. Wie die Sicherheitsexperten erklären, nimmt nun ein Telegram-Bot die Bilder angezogener Frauen entgegen und erzeugt vermutlich über die Software Deepnude die gefälschten Nacktbilder auf externen Servern. Der Bot funktioniert nur mit Bildern von Frauen. Die computergenerierten Bilder werden über Telegram ausgeliefert und sind kostenlos. Allerdings enthalten auch diese Aufnahmen ein Wasserzeichen oder aber entkleidet die Opfer teils nicht komplett. Soll das Wasserzeichen entfernt werden oder eine schnellere Bearbeitung erfolgen, etwa um die Opfer komplett zu entkleiden, muss gezahlt werden.

Das Deepnude-Problem wird größer und ist präsenter, als es vielen Menschen derzeit bekannt ist. In einer Umfrage unter den Nutzern in einem der bekannten Hauptkanäle für den Austausch dieser Deepnude-Bilder, gaben 63 Prozent an, dass die Bots vornehmlich dazu genutzt würden, Nacktfotos von Frauen aus dem Bekanntenkreis zu generieren. Die Opfer dürften in den seltensten Fällen wissen, dass künstlich erzeugte Nacktbilder von ihnen im Internet getauscht oder veröffentlicht werden. Bei einem kleinen Teil der Bilder, die in den Gruppen getauscht werden, soll es sich um Aufnahmen von Minderjährigen gehandelt haben.

Die Opfer von Deepfakes haben derzeit nur wenige Mittel, um sich zu wehren. US-Rechtsexperten sagen, dass Deepfakes oft nicht unauffindbar sind, um untersucht zu werden, und in einer rechtlichen Grauzone existieren, da sie oftmals auf öffentlich verfügbaren Fotos basieren.

"Wenn Sie der schlimmste Frauenfeind der Welt wären", sagte Mary Anne Franks, Rechtsprofessorin an der Universität von Miami und Präsidentin der Cyber Civil Rights Initiative in einem Interview, "würde diese Technologie es Ihnen ermöglichen, alles zu erreichen, was Sie wollten." Während Männer fast ausschließlich als Scherz in die Videos eingefügt würden, sind es bei Frauen überwiegend pornografische Inhalte, die zeigen, "wie die sexuelle Objektivierung von Frauen durch denselben Stil der KI-Technologie ermutigt wird, der die Zukunft des Web untermauern könnte."