
Das Gesicht der israelischen Schauspielerin Gal Gadot landete auf ähnliche Weise in einem Porno. Auf einschlägigen Pornoportalen finden sich reihenweise Fakes von Schauspielerinnen wie Jennifer Aniston, Emma Watson und Scarlett Johansson. Auch Bundeskanzlerin Angela Merkel musste ihren Kopf für eine Fake-Produktion hinhalten. Der Merkel-Klon, den der Bayerische Rundfunk mit MyFakeApp kreierte, wirkt allerdings dilettantisch: Das Merkel-Double Antonia von Romatowski, das den Text einsprach und Modell für den digitalen Doppelgänger stand, kommt nicht an das Original heran. Trotzdem: Was an diesen Fälschungen verblüfft, ist zum einen die Leichtigkeit, mit der sich Bewegtbilder retuschieren lassen, zum anderen das immense Manipulationspotenzial. In Zeiten, in denen täglich 300 Millionen Fotos auf Facebook hochgeladen und an jeder Ecke Gesichtserkennungssysteme installiert werden, kann das Konterfei leichter Hand zum Gegenstand von Rachepornos werden. Das Gesicht wird zum Gemeingut.
Jeder ist Hollywood
Das Problem von Fake News lag bisher eher darin, dass sich erfundene Meldungen als Nachricht ausgaben, indem sie Duktus und Machart von News-Portalen imitierten - wobei Fake News keine Domäne des Internets sind, sondern in Klatschzeitschriften und Boulevard-Blättern längst verbreitet waren, als man seine Nachrichten noch nicht bei Facebook oder Google "konsumierte". Deepfakes könnten das Problem von Fake News auf eine ganz neue Ebene heben - und sich zu einer veritablen Bedrohung für die Demokratie auswachsen.
Computergenerierte Bilder waren bis vor ein paar Jahren nur in aufwendigen Hollywood-Produktionen möglich. Doch mit der Verbreitung von KI-Systemen benötigt man für die Manipulation von Bildern keine teuren Spezialeffekte mehr, sondern nur noch eine Software. Das Tool TensorFlow, auf dem MyFakeApp basiert, wurde 2015 von Google als Open-Source zur Verfügung gestellt, mit dem Ziel, maschinelles Lernen zu verbessern. Seitdem kann jeder auf Googles Bilderkennungsalgorithmen zugreifen. Und man braucht auch keinen Stimmenimitator zu engagieren.
Forscher des chinesischen Suchmaschinenunternehmens Baidu haben kürzlich ein Verfahren vorgestellt, das nur wenige Sekunden Ausgangsmaterial benötigt, um eine Stimme digital zu reproduzieren (Adobe brauchte dafür rund 20 Minuten Trainingsmaterial). Stimmen, Bilder, Videos - mit der richtigen Software kann heute alles manipuliert werden. Jeder ist Hollywood, jeder ist Regisseur seines eigenen Bilderkinos.
Die libertäre Losung "Information wants to be free", die schon immer doppelt codiert war ("frei" im Sinne von frei zugänglich und kostenlos), könnte sich in eine Hybris verwandeln. Der Computerwissenschafter Aviv Ovadya warnte von einer "Informations-Apokalypse". In einem Gastbeitrag für die "Washington Post" stellte er die Frage: "Was schadet der Gesellschaft mehr: Wenn niemand mehr etwas glaubt oder jeder Lügen glaubt?"