Künstliche Intelligenz flutet das Internet mit falschen Bildern. Warum wir jetzt alle Bild-Detektive werden müssen.
Eine Anime-Version von dir lächelt dir auf dem Smartphone entgegen. Alexander van der Bellen und Donald Trump teilen sich Zuckerwatte. Binnen Sekunden zaubert Künstliche Intelligenz (KI) aus fiktiven Szenen fotorealistische Bilder.
- Mehr für dich: Deepfakes im Wahlkampf
Vergangenes Jahr sorgten die Ergebnisse von Midjourney und Co für zahlreiche Lacher. Den Bildern war anzusehen, dass etwas nicht stimmt. Nur ein Jahr später bleibt einem das Lachen im Hals stecken. Denn die KI lernt schnell. Das Quiz „Which Face is Real?“ der University of Washington zeigt, wie schwierig die Unterscheidung zwischen echt und Fake ist.
Falsche Päpste und Klitschkos
Ihre erstaunlichen Fähigkeiten machen die KI in falschen Händen zu einem gefährlichen Werkzeug. Die Algorithmen können reale Orte und Menschen perfekt nachahmen. Solche Bilder und Videos nennt man Deepfakes – benannt nach sogenannten Deep-Learning-Algorithmen im Hintergrund. Im Frühjahr ging ein KI-Bild des Papstes in weißer Pufferjacke viral – ein überzeugender, vergleichsweise harmloser Deepfake. Brisanter ist ein Fall aus Deutschland, bei dem KI für politische Zwecke instrumentalisiert wurde: Ein AfD-Politiker hatte ohne Hinweis ein KI-Bild gepostet, das aggressiv aussehende Flüchtlinge zeigt. Sogar die Weltwirtschaft können die neuartigen Bilder beeinflussen, wie ein Beispiel Ende Mai zeigte: Ein Fake-Foto von einer Explosion in der Nähe des Pentagons (Washington) ließ den amerikanischen Aktienindex S&P 500 kurzfristig sinken.
Auch der Wiener Bürgermeister Michael Ludwig (SPÖ) ging der KI auf den Leim. Im Juni 2022 nahm er an einem Videocall mit dem Kiewer Bürgermeister Vitali Klitschko teil. Doch Klitschko war nicht echt. Am Folgetag wurde der Fake enttarnt: Die Berliner Bürgermeisterin Franziska Giffey hatte ihr Klitschko-Gespräch nach einer halben Stunde abgebrochen. Selbst Spitzenpolitiker sind nicht vor Deepfakes gefeit.
Für die Deepfakes genügen Video- oder Tonaufnahmen von einer Person. Das KI-Programm erkennt Muster in Sprechweise und Bewegungen, die in ein zweites Video „kopiert“ werden. Das Deepfake-Problem ist so groß, dass es das österreichische Innenministerium schon 2022 in einem eigenen Aktionsplan als ernsthafte Gefahr für die Demokratie einstufte. KI kann zu „Massendemonstrationen sowie Regierungs- und Staatskrisen“ führen, so die Einschätzung.
Klimaaktivist:innen im Porno
Deepfakes können aber nicht nur die Demokratie ins Wanken bringen, sondern auch das Privatleben. 2019 veröffentlichte die niederländische Cybersecurity-Firma Deeptrace einen Bericht, wonach acht von zehn der größten Porno-Plattformen Deepfakes hosten. Das auf KI-Detektion spezialisierte Unternehmen Sensity AI schätzte im Februar 2021, dass bis zu 96 Prozent der Deepfake-Videos im Internet Pornos sind. Zwischen 2018 und 2020 verdoppelte sich die Anzahl kursierender Fake-Pornos alle zwei Monate. Insgesamt fand Sensity AI 85.047 Videos, die eine Person nachahmten.
Seither wurde die Verbreitung von Deepfake-Pornos einfacher und lukrativer. Spezialwebseiten sind auf Google rasch auffindbar. Aber auch auf den großen Plattformen findet man sie – trotz Verbot: Pornhub blendet bei der Suche nach „Deepfake“ immerhin einen Warnhinweis ein, dass die Suche illegal ist. xvideos hingegen hostet zahlreiche Deepfake-Pornos von Schauspieler:innen, Sänger:innen und sogar von Klimaaktivist:innen. Das amerikanische Medium NBC News berichtete vor Kurzem, dass auf der Plattform Discord sogar private Deepfakes auf Bestellung angeboten werden – als Vorlage genügt ein Foto. Wer plötzlich ungewollt in einem Porno mitspielt, kann im Privat- und Berufsleben geschädigt werden. Probleme bei der Jobsuche oder soziale Ausgrenzung sind Folgen für Betroffene.
Neben den Sicherheitsbehörden beschäftigen sich auch österreichische Medienhäuser mit dem Deepfake-Problem. Allen voran die Austria Presse Agentur (APA), von der viele Medien Fotos beziehen. Bereits seit Jahren suchen APA-Mitarbeiter:innen nach Lösungen: Wie lassen sich Deepfakes besser und schneller erkennen? Es ist ein Wettlauf gegen die Zeit: „Seit ein paar Jahren werden die Fotos und Videos besser und es wird immer schwieriger, sie als Fakes zu identifizieren“, erzählt Florian Schmidt. Er ist Faktenchecker bei der APA. Tools wie Dall-E 2 – verfügbar seit dem Frühjahr 2022 – beschleunigten die Entwicklung. „Da war für uns klar, dass Deepfakes immer bedrohlicher werden und relevant sind“, sagt Schmidt.
Fake-Fotos sind nichts Neues: „Die Fotografiegeschichte ist voll mit berühmten Beispielen von Bildmanipulation, heute nennen wir das Fake“, erzählt Luzia Strohmayer-Nacif. Sie leitet den Visual Desk der APA und ist Teil einer KI-Taskforce. „Früher hieß es Retusche, dann Collage, dann Manipulation. Dennoch betrachten Leser:innen das News-Foto als Dokument. Sie glauben, was sie sehen. Eine Teil-Wahrheit, die schon 150 Jahre besteht“, sagt die Bildexpertin. Die Diskussion, ob der „Fallende Soldat“ (1936) des amerikanischen Kriegsfotografen Robert Capa oder „Raising the Flag on Iwo Jima“ (1945) von Joe Rosenthal möglicherweise gestellt sind, flammt bis heute auf.
Wer getäuscht werden will, braucht keine Fakes
In der Pressefotografie gelten strenge Ethik-Richtlinien. Manipulation kann trotzdem nie ausgeschlossen werden. „Jetzt kann man maschinell schnell Lügen produzieren. Gute Photoshop-Fakes waren hingegen zeitaufwendig“, sagt Strohmayer-Nacif.
Doch sie sieht auch Positives. „KI-Bilder können auch sinnvoll sein.“ Strohmayer-Nacif wünscht sich eine einfache Kennzeichnung: „Die Leser:innen sollten erfahren, ob das Bild von einer KI generiert wurde oder ob es sich um herkömmliche Fotografie handelt.”
Google kündigte im Mai 2023 an, künftig zu jedem Bild Hinweise einzublenden. Wann oder wo ist dieses Bild erstmalig erschienen? Auf welcher Website? Stammt es von der KI? Auch über die Einführung eines Standards für Metadaten diskutieren Experten. Der Artificial Intelligence Act der Europäischen Union sieht vor, dass von KI geschaffene Inhalte, die echten Menschen oder Orten ähneln, gekennzeichnet werden müssen. Allerdings wird die Regelung nicht vor 2026 in Kraft treten. Laut Europol könnte das Internet bis dahin von KI-Inhalten geflutet sein – bis zu 90 Prozent aller Inhalte hält die Behörde für denkbar.
Die Lösung: Wir werden alle Bilddetektive
Wer mit zweifelhafter Absicht Deepfakes verbreiten will, findet Wege. „Wir beobachten aber, dass es gar keine perfekten Fakes braucht, um Leute in die Irre zu führen“, sagt APA-Faktenchecker Schmidt. Für eine Täuschung reiche es, wenn Menschen sich in ihrem Weltbild bestätigt fühlen. Selbst billig produzierte Fakes würden dafür ausreichen, wenn die Menschen von vornherein von einer bestimmten Aussage des Bildes überzeugt seien, so Schmidt. Wichtiger sei es, dass viele Menschen lernen, wie man Bilder kritisch prüft. Politiker:innen und Geschäftsleute bringen hier häufig KI-Erkennungs-Tools ins Spiel. Schmidt glaubt nicht an ihre Zuverlässigkeit. „Wir sind bei der Detektion immer einen Schritt hinterher“, so der Experte. Das Projekt „defalsifAI “, das die APA gemeinsam mit dem Austrian Institute of Technology (AIT) durchführte, brachte zwar gute Ergebnisse, aber ein vollständig automatisierter Überführungsprozess ist nicht möglich.
Wichtiger werde es laut Schmidt, die sogenannte Logik des Bildes zu hinterfragen. Etwa beim Pufferjacken-Papst: „Man sollte sich fragen, ob es andere Aufnahmen davon gibt. Wenn der Papst mit so einer Jacke rausgeht, sollte es doch mehr Bilder geben“, so Schmidt. Wir werden uns in Zukunft fragen müssen: Was genau soll passiert sein? Gibt es Zeugen? Gibt es noch andere Aufnahmen, die das Ereignis belegen?
Meta-Daten von Fotos geben Auskunft
Bei der APA sind journalistische Grundsätze, die heute diskutiert werden, seit Jahrzehnten Standard. Die Metadaten von APA-Fotos erklären, wo und von wem ein Foto aufgenommen wurde. KI-Bilder haben die APA und ihre internationalen Nachrichtenagentur-Partner aus ihrem Bilder-Pool ausgeschlossen. Innerhalb Österreichs schickt die APA eigene Fotografen los. Hier sensibilisiert die Nachrichten- und Bildagentur im Umgang mit KI, in APA-Datenbanken werden aktuell keine KI-generierten Bilder eingespielt. Luzia Strohmayer-Nacif hatte bei der APA nur einmal mit einem KI-Bild zu tun. Es war Winter und die APA-Fotografen hatten sich gerade daran abgearbeitet, dass es in Tirol nicht schneit. „Da sah eine Kollegin plötzlich, wie im PictureDesk-Redaktionssystem ein Bild von einem Skifahrer im Schnee daherkommt. Sie dachte sich: Wo wurde das denn aufgenommen?“ Im Quelltext stand, dass das Foto mit Midjourney erstellt wurde. „Wir haben das Bild dann offline genommen und mit dem Bildlieferanten den Dialog gesucht“, erzählt Strohmayer-Nacif.
Der Fotograf hatte ohne böse Absicht gehandelt, doch der Fall zeigt, wie schnell Fake-Bilder entstehen und in Umlauf kommen. Generell gilt in Zukunft deshalb nicht mehr nur: „Augen auf!“, sondern mehr denn je auch „Kopf an!“ – selbst dann, wenn die Fakes so offensichtlich sind wie das Anime-Gesicht auf TikTok.
Dir hat dieser Beitrag besonders gut gefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Gesprächspartner:innen
Luzia Strohmeyer-Nacif ist Bildredakteurin und Leiterin des APA Visual Desk.
Florian Schmidt ist als Verification Officer der leitende Faktenchecker der Austria Presse Agentur.
Daten und Fakten
Bereits seit einem guten Vierteljahrhundert arbeiten Forscher schon an den Werkzeugen, die zum Bereich des Maschinellen Lernens gehören. Computer oder Algorithmen lernen dabei aus ihren eigenen Erfahrungen laufend dazu. Die Basis dafür sind gesammelte Daten, die sie auswerten. Immer schon waren Computer gut darin, Anweisungen exakt ausführen. Für Künstliche Intelligenz (KI) in ihrer heutigen Form fehlten aber lange wichtige Zutaten, die vor etwa 15 Jahren verfügbar wurden: große Mengen an „Trainingsdaten“ im Internet, leistungsstärkere und günstigere Hardware. Erst dadurch wurde die KI zu dem, was wir in den letzten Monaten überall sehen. Relativ neu ist, dass die KI auch selbst Dinge erschaffen kann. Sogenannte „generative KI“ beherrscht eine große Palette an künstlerischen Fähigkeiten – sie schreibt Gedichte, komponiert Musikstücke, zeichnet Landkarten, malt Bilder im Stil von Van Gogh oder erstellt Videoclips.
Der Fréchet Inception Distance Score (FIS) ist eine Metrik zur Bewertung der Qualität von KI-generierten Bildern im Vergleich zu echten Bildern. Ausschlaggebend sind statistische Eigenschaften und Abweichungen.
Quellen
Which face is Real?, University of Washington
Stanford AI Index, University of Stanford
Aktionsplan Deepfake, Innenministerium
Projekt defalsif-AI, Austrian Institute of Technology
Das Thema in anderen Medien
Der Spiegel: Der Wirsing-Effekt
Der Spiegel: Wenn Maschinen lügen lernen
The Atlantic: I Shouldn’t Have to Accept Being in Deepfake Porn
Vox.com: What will stop AI from flooding the internet with fake images?
nbcnews.com: Found through Google, bought with Visa and Mastercard: Inside the deepfake porn economy