Hinweis: Der Inhalt dieser Seite wurde vor 2 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Es ist ein durchaus glaubwürdiges Video, das Facebook als Fälschung identifiziert und entfernt hat. In dem Video hat der ukrainische Präsident Wolodymyr Selenskyj seine Soldaten aufgefordert, die Waffen niederzulegen. Alleine: Das Video ist gefälscht. Selenskyj hat die Erklärung nie abgegeben. Das gefälschte Material erschien am Mittwoch zunächst auf der Website des Nachrichtenportals "Ukraine 24", nachdem diese angeblich von Hackern angegriffen worden war. Danach verbreitete sich das Deepfake-Video rasch im Internet und auch in Facebook und Instagram.
Ein Deepfake-Video ist ein mithilfe Künstlicher Intelligenz erstelltes Video, das authentisch wirken soll, es aber natürlich nicht ist. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen. Solche Videos sind nicht einfach zu produzieren, können aber eine enorme Wirkung haben, da man einem Menschen praktisch alles in den Mund legen kann. Bei der rasend schnellen Verbreitung in den Sozialen Medien ist der Schaden oft schon entstanden, bevor die Fälschung erkannt wird. Ideal also, wenn man die gegnerischen Soldaten im Chaos des Krieges beeinflussen will. Doch auch die andere Seite war schon betroffen: Kürzlich ist ein Video aufgetaucht, in dem Wladimir Putin eine Kapitulationsankündigung in den Mund gelegt wurde.
Bleibt nur zu hoffen, dass es bald authentische Videos zum Ende dieses völlig sinnlosen Krieges gibt. Die verbreiten wir dann auch gerne weiter.