Montag 29.April

 
 
deutsch
english
 
 
 
 

DEEPFAKES: Wenn Videos lügen

Wolfgang Kubicki (FDP) kann kaum glauben, was er da angeblich gesagt haben soll. Und doch ist es in dem Video, das er sich gerade anschaut, genau so zu sehen und zu hören. Darin behauptet der Politiker nämlich, ohne Christian Lindner hätte die FDP zehn Prozentpunkte mehr. Und er fordert vehement die Einführung einer Impfpflicht. Kubicki weiß, dass er dort Zündstoff vor Augen hat. „Das könnte sowohl meine Existenz ruinieren, als auch meine Position in der Partei massiv schwächen“, so der Politiker.
Doch die Wahrheit ist: Auch wenn es so scheint, hat Kubicki die provokanten Äußerungen nie gemacht. Das Video der beiden Aussagen ist eine Fälschung, ein sogenannter Deepfake. Mithilfe von künstlicher Intelligenz (KI) wurden Bildmaterial und Stimme manipuliert, um dem 69-Jährigen falsche Aussagen in den Mund zu legen. Das gefälschte Video kursiert in diesem Fall zum Glück nicht im Internet.
Es ist das Ergebnis eines mehrwöchigen Experiments: Ein junges Team der FreeTech Academy (Axel Springer Academy of Journalism and Technology) hatte einige dieser Deepfakes erstellt und anschließend die Betroffenen damit konfrontiert. Wie erschreckend echt solche Fälschungen sein können, mussten sich neben Kubicki auch Staatsministerin Dorothee Bär (CSU) und Konstantin von Notz (Grüne) vor Augen führen. Und was zunächst noch wie ein Gag wirkt, ist auf den zweiten Blick eine Gefahr für uns alle.

Warum es uns betrifft

Deepfakes sind dem Experimentstatus entwachsen: Gefälschtes taucht inzwischen auch im Internet auf und beeinflusst damit das öffentliche Meinungsbild.
Aussagen wie die genannten schaden in erster Linie den Politikern selbst, aber auch der Demokratie insgesamt. Denn welcher Politiker ließe sich noch „beim Wort nehmen“, wenn aufgrund gut gemachter Fakes gar nicht mehr klar ist, was er wirklich gesagt hat – und was nicht? Schon jetzt nutzen Kriminelle die Technik für ihre Zwecke aus. In den USA warnte kürzlich das FBI vor Videoanrufen vermeintlich realer Personen, die sich etwa als Investoren oder Firmen-Manager ausgeben, um an Bankinformationen zu gelangen. Weil viele Menschen gar nicht wissen, was moderne Software kann, ist die Gefahr durchaus groß. Schon an der Tagesordnung sind Deepfake-Pornos, in denen die Ersteller Gesichter in Sex-Videos übertragen.

So funktionieren Deepfakes

Wie entstehen solche Videos? Eine der Möglichkeiten: das Gesicht einer Person auf das einer anderen setzen. Dafür benötigt der Ersteller des Deepfakes eine Datenbank, in der das Gesicht der Zielperson in möglichst vielen Varianten gespeichert ist. Je besser die Auflösung der Aufnahmen, und je größer die Varianz an Mimik und Beleuchtung, desto glaubhafter sieht das Ergebnis aus. Mithilfe der Daten und einer künstlichen Intelligenz lässt sich so lange an dem Modell feilen, bis es überzeugend wirkt.
Überträgt man das nun auf das eigene Gesicht, synchronisiert die KI die Lippenbewegung. So lassen sich etwa Politikern ganz einfach fremde Worte in den Mund legen. Wer nun glaubt, das könnten nur Spezialisten, der irrt: Die für Deepfakes nötige Software ist größtenteils kostenlos für jedermann nutzbar, auch ambitionierte Laien können damit überzeugende Ergebnisse erzielen.

Nicht alles ist schlecht

Muss also ein Verbot von derartiger Software her? Experten sehen das kritisch und verweisen auf den positiven Nutzen: Statt von „Deepfake“ sprechen sie lieber neutraler von „synthetischen Medien“. Ein Beispiel dafür ist die Plattform Synthesia.io, die legal Videos auf Basis von KI generiert. Firmen nutzen den Dienst etwa, um für Präsentationen digitale Moderatoren zu erstellen. Aber auch für die Filmproduktion ist Synthesia nützlich. „In einigen Jahren können wir ganze Hollywood-Filme auf dem Notebook drehen – ohne Kameras, Studios, Schauspieler“, sagt Victor Riparbelli, CEO von Synthesia.

Da dies schon mit geringem Budget möglich ist, sieht er darin einen Ansatz der Demokratisierung. Auch das Unternehmen Pinscreen generiert synthetische Medien – enttarnt aber zugleich gefährliche Deepfakes. Überraschend: Gründer Hao Li sieht in den Fälschungen selbst nicht das Problem, sondern im Umgang damit. Wer mehr über das Thema wissen will, kann sich auf der Website der FreeTech Academy umschauen. Auf www.thedeepfake.report findet sich eine Dokumentation, ein Podcast und diverse Artikel, die über Nutzen und Gefahren informieren.

© Jack Willson - Digital & Printdesigns | www.jackwillson.com