Zum Hauptinhalt springen

Echt täuschend - täuschend echt

Von Adrian Lobe

Reflexionen

Mit Computerprogrammen ist die Erstellung von "Fake"-Videos zum Kinderspiel geworden.


Der Comedian Jordan Peele (r.) lässt Barack Obama sprechen. Wie man auf YouTube sehen (und hören) kann, ist der "Fake" kaum mehr als solcher zu erkennen.
© Screenshot YouTube

Im Netz kursiert ein Video, in dem ein scheinbar von allen politischen Konventionen losgelöster Barack Obama Klartext spricht. "Wir treten in ein Zeitalter ein", hebt der 44. Präsident der Vereinigten Staaten an, "wo unsere Feinde es so aussehen lassen können, als ob jeder irgendetwas zu irgendeiner Zeit sagt, selbst wenn diese Person niemals solche Dinge sagen würde." Zum Beispiel könnten sie ihm Worte in den Mund legen wie: "Killmonger (ein fiktiver Schurke) hatte Recht." Oder: "Präsident Trump ist ein totaler und kompletter Vollidiot." Er, Obama, würde solche Dinge nie aussprechen - zumindest nicht öffentlich.

Das Video wirkt authentisch: Der Hintergrund, die Stimme, die Mimik und Gestik, wie er Daumen und Zeigefinger der linken Hand zur Betonung zusammenführt, all das scheint echt. Doch hier spricht nicht der richtige Obama, sondern der Oscar-gekrönte Comedian und Obama-Imitator Jordan Peele; das Video ist ein Fake. Nach gut der Hälfte des Videos löst Peele die Fälschung auf: Man sieht den Stimmimitator in der rechten Hälfte des geteilten Bildschirms sprechen, während Obama in der linken Bildhälfte synchron seine Lippen bewegt. Oder ist es andersrum? Die Gleichzeitigkeit ist fast schon gruselig.

Manipulationspotenzial

Das Video wurde von Peeles Produktionsfirma kreiert. Die Grafiker nutzten dazu das Videoeffektprogramm Adobe After Effects sowie die KI-Software (Künstliche Intelligenz, Anm.) MyFakeApp, um Peeles Mund in jenen Obamas zu montieren. Die Computerspezialisten ließen das Bildmaterial zwölf Stunden lang durch ein Deep-Learning-Programm laufen, das Bildpunkte und Vektoren berechnete. Wo Peeles Mund nicht in der richtigen Position war, korrigierte die Software einzelne Bildpunkte. Da Obamas und Peeles Gesichtsform nicht deckungsgleich sind, kreierten die Spezialisten einen synthetischen Kieferknochen. Deepfakes, ein Kofferwort aus Deep Learning und Fake, nennt man diese täuschend echt aussehenden Fälschungen.

Bei genauem Hinsehen erkennt man Unschärfen: Der Kiefer ist pixelig, die Bildübergänge sind hart, die Mimik ist an manchen Stellen etwas steif. Trotzdem wirkt das Video erstaunlich echt. Mit der Software, die dabei zum Einsatz kam, wurde bereits das Gesicht von Michelle Obama auf den Körper einer Pornodarstellerin montiert. In dem Pornoclip sieht man, wie eine afroamerikanische Frau vor einem roten Sofa strippt und einen Penis zwischen ihren Brüsten reibt. Es handelt sich dabei um keine geleakte Sexszene aus dem Weißen Haus, sondern um eine Fälschung.

Um diesen externen Inhalt zu verwenden, musst du Tracking Cookies erlauben.

Wiener Zeitung Logo

Cookie Einstellungen

Ohne Cookies funktioniert die Website wienerzeitung.at nur eingeschränkt. Für eine sichere und einwandfreie Nutzung unserer Website werden daher technisch notwendige Cookies verwendet. Für die Darstellung von Inhalten von Drittanbietern (YouTube, Simplecast, 23degrees und APA) werden Session-Cookies gesetzt. Bei diesen kann eine Datenübermittlung in ein Drittland stattfinden. Ihre Einwilligung zur Setzung genannter Cookies können Sie jederzeit unter "Cookie Einstellungen" am Seitenende widerrufen oder ändern. Nähere Informationen zu den verwendeten Cookies finden sich in unserer Datenschutzerklärung und in unserer Cookie Policy.

Das Gesicht der israelischen Schauspielerin Gal Gadot landete auf ähnliche Weise in einem Porno. Auf einschlägigen Pornoportalen finden sich reihenweise Fakes von Schauspielerinnen wie Jennifer Aniston, Emma Watson und Scarlett Johansson. Auch Bundeskanzlerin Angela Merkel musste ihren Kopf für eine Fake-Produktion hinhalten. Der Merkel-Klon, den der Bayerische Rundfunk mit MyFakeApp kreierte, wirkt allerdings dilettantisch: Das Merkel-Double Antonia von Romatowski, das den Text einsprach und Modell für den digitalen Doppelgänger stand, kommt nicht an das Original heran. Trotzdem: Was an diesen Fälschungen verblüfft, ist zum einen die Leichtigkeit, mit der sich Bewegtbilder retuschieren lassen, zum anderen das immense Manipulationspotenzial. In Zeiten, in denen täglich 300 Millionen Fotos auf Facebook hochgeladen und an jeder Ecke Gesichtserkennungssysteme installiert werden, kann das Konterfei leichter Hand zum Gegenstand von Rachepornos werden. Das Gesicht wird zum Gemeingut.

Jeder ist Hollywood

Das Problem von Fake News lag bisher eher darin, dass sich erfundene Meldungen als Nachricht ausgaben, indem sie Duktus und Machart von News-Portalen imitierten - wobei Fake News keine Domäne des Internets sind, sondern in Klatschzeitschriften und Boulevard-Blättern längst verbreitet waren, als man seine Nachrichten noch nicht bei Facebook oder Google "konsumierte". Deepfakes könnten das Problem von Fake News auf eine ganz neue Ebene heben - und sich zu einer veritablen Bedrohung für die Demokratie auswachsen.

Computergenerierte Bilder waren bis vor ein paar Jahren nur in aufwendigen Hollywood-Produktionen möglich. Doch mit der Verbreitung von KI-Systemen benötigt man für die Manipulation von Bildern keine teuren Spezialeffekte mehr, sondern nur noch eine Software. Das Tool TensorFlow, auf dem MyFakeApp basiert, wurde 2015 von Google als Open-Source zur Verfügung gestellt, mit dem Ziel, maschinelles Lernen zu verbessern. Seitdem kann jeder auf Googles Bilderkennungsalgorithmen zugreifen. Und man braucht auch keinen Stimmenimitator zu engagieren.

Forscher des chinesischen Suchmaschinenunternehmens Baidu haben kürzlich ein Verfahren vorgestellt, das nur wenige Sekunden Ausgangsmaterial benötigt, um eine Stimme digital zu reproduzieren (Adobe brauchte dafür rund 20 Minuten Trainingsmaterial). Stimmen, Bilder, Videos - mit der richtigen Software kann heute alles manipuliert werden. Jeder ist Hollywood, jeder ist Regisseur seines eigenen Bilderkinos.

Die libertäre Losung "Information wants to be free", die schon immer doppelt codiert war ("frei" im Sinne von frei zugänglich und kostenlos), könnte sich in eine Hybris verwandeln. Der Computerwissenschafter Aviv Ovadya warnte von einer "Informations-Apokalypse". In einem Gastbeitrag für die "Washington Post" stellte er die Frage: "Was schadet der Gesellschaft mehr: Wenn niemand mehr etwas glaubt oder jeder Lügen glaubt?"

Die erkenntnistheoretische Frage, was wahr und falsch ist, die Kantische Frage "Wie kann ich wissen?", ist ja nicht bloß Gegenstand philosophischer Grundlagenseminare, sondern eine ganz zentrale der Demokratie: Wie werden faktenorientierte Deliberationsverfahren organisiert? Mit welchen Techniken lässt sich das Original vom Fake unterscheiden? Sind es vielleicht gar keine Kultur-, sondern bloß noch Computertechniken, mit denen die Prüfung stattfindet (durch eine Verifizierung von Metadaten und Hashwerten beispielsweise)?

Der französische Soziologe Jean Baudrillard schreibt in seinem Werk "Die Intelligenz des Bösen" (2004): "In der Sphäre des Virtuellen - des Digitalen, des Computers, des integralen Kalküls - ist nichts repräsentierbar. (. . .) Es ist die totale Immersion, und die zahllosen Bilder, die aus dieser Mediensphäre zu uns kommen, entstammen nicht der Ordnung der Repräsentation, sondern jener der Dekodierung und des visuellen Konsums."

In der Simulationstheorie hat sich die Welt in einer Hyperrealität aufgelöst: Maschinen produzieren Maschinen, die Bilder haben keinen Referenten mehr. Die Unterscheidung zwischen Fiktion und Wirklichkeit existiert nicht mehr. "Wir haben die reale Welt abgeschafft", schreibt Baudrillard. "Das Original ist nirgendwo mehr ausgewiesen."

Nach Baudrillard handelt es sich um eine "perfekte Vorwegnahme der Welt, wie sie uns bevorsteht: eine perfekte Kopie, von der wir nicht mehr wissen, dass es sich um eine Kopie handelt. Doch was wird aus dem Original, wenn die Kopie aufhört, eine Kopie zu sein?" Was wäre, wenn die computergenerierten Fakes immer realer würden, wenn sie dereinst sogar authentischer erscheinen als das Original? Wäre das die perfekte Simulation der Realität? Donald Trump sagte, er habe mittlerweile Zweifel, ob die Stimme des im Wahlkampf durchgestochenen Skandalvideos, in dem er sich mit dem Moderator Billy Bush chauvinistisch über Frauen auslässt ("grab them by the pussy"), auch wirklich seine sei.

Es ist schon bizarr: Der wissenschaftliche Fortschritt, die Möglichkeit, Stimmen digital zu reproduzieren, erlaubt es einem notorischen Faktenverdreher, die Authentizität von Videos infrage zu stellen. Dass Trump beim Lügen wahrhaftig ist und seine Körpersprache auf dem Bildschirm nicht verlogen, sondern authentisch rüberkommt, zeigt auch, dass die Maßstäbe verrückt sind.

Datensouveränität

Es hat etwas Tröstliches, dass der Obama-Fake ironisch gebrochen ist, dass mit dem Mittel des Fakes auf einer Metaebene vor demselben gewarnt wird. Man kann darüber schmunzeln. Doch es hat auch etwas Bedrohliches, weil man Obama Dinge artikulieren lässt, die er nie gesagt hat, weil man ihn zum Vehikel einer computerisierten Bildersprache macht, gegen die er sich nicht wehren kann. Das Individuum degeneriert zu einem Dummy, an dem Programmierer wie an einer Marionette herumspielen.

In der Digitaldebatte reden die Beteiligten immer über Datensouveränität und individuelle Selbstbestimmung - aber käme nur einmal jemand auf die Idee, ein Copyright für biometrische Merkmale einzufordern? Kann es angehen, dass man Gesichter wie in einem Baukastensatz auf Pornodarsteller montiert und in wildfremde Kontexte einbettet? Dass Gesichter zum Template für die elektronische Datenverarbeitung verkommen?

Durch diese Konstruktion von Datenkörpern wird das Recht auf informationelle Selbstbestimmung verletzt. Das Dilemma der Digitalisierung ist, dass durch die Explosion von Informationen deren Integrität immer schwieriger zu schützen ist. Baudrillard, der 2007 verstarb, warnte in seinen letzten, teils hysterisch überdrehten Schriften vor einer Überhitzung der spekulativen "Ereignisbörse", in der es durch die Überproduktion von Zeichen zum Crash demokratischer Werte wie auch jener der Wahrheit kommen könne. Er schrieb, etwas kryptisch, von "Fake events" und einem "tendenziellen Fall der Realitätsrate".

Man kann darin durchaus eine Analogie zur heutigen Lage lesen: Die Zentralbanken der Aufmerksamkeitsökonomie - Google, Facebook oder Twitter - haben die Schleusen der Information (und Desinformation) derart weit geöffnet, dass die Gatekeeper weggespült wurden und die Information inflationiert wurde. Wo Wahrheit an Wert verliert, hat auch die Demokratie kaum noch Kredit, haben notorische Lügner leichtes Spiel.

Adrian Lobe, geboren 1988, studierte Politik- und Rechtswissenschaft. Er schreibt als freier Journalist für diverse Medien im deutschsprachigen Raum (u.a. "FAZ", "NZZ" und "Wiener Zeitung").