Fälschung oder Realität? Wie künstliche Intelligenzen unser Vertrauen missbrauchen
Autor:in
Veronika DorniedenErinnern Sie sich noch an Barack Obamas Worte: „Präsident Trump ist ein totaler Vollidiot!“? Ganz schön provokant, solche Äußerungen ist man von dem Ex-US-Präsidenten gar nicht gewohnt. Aber hat er das wirklich gesagt? Natürlich nicht. Dieses Video ist ein sogenannter Deepfake und wurde von Jordan Peele erstellt, um aufzuzeigen wie gefährlich ein solcher Fake sein kann.1 Doch lassen Sie uns etwas tiefer in die Materie eintauchen.
Deepfake ist eine Wortschöpfung aus „Deep Learning“ und „Fake“. Es beschreibt eine Methode, die Bilder, Videos oder Audioformate mit Hilfe einer künstlichen Intelligenz so manipulieren kann, dass das menschliche Auge oder Ohr kaum noch in der Lage ist, diese Fälschungen als solche wahrzunehmen. Aber was genau ist der Zweck eines solchen Deepfakes und wie wird er überhaupt generiert?
Um ein Deepfake zu erstellen, werden sogenannte neuronale Netze verwendet. Diese Netzwerke agieren ähnlich wie das menschliche Gehirn und sind in der Lage, bei einem hohen Datensatz vorherzusagen, wie weitere Daten der gleichen Art aussehen könnten. Das bedeutet also, füttert man diese Netzwerke mit genügend Bildern, Videos und Audioinhalten, werden sie immer besser und schaffen qualitativ höhere Manipulationen.
Ein sehr effektives neuronales Netzwerk ist das GAN. Es wurde erstmals im Jahr 2014 von Ian Goodfellow in einer wissenschaftlichen Arbeit erwähnt. Über die Jahre bauten verschiedene Forschende diese Netzwerke immer weiter aus und kombinierten sie miteinander. Dadurch wurden die Fälschungen immer hochwertiger und glaubhafter. Doch zuerst sollten wir einmal definieren, was ein GAN überhaupt ist.
Ein GAN – kurz für Generative Adversarial Networks – ist ein Netzwerk bestehend aus zwei Algorithmen. Der eine Algorithmus fälscht ein Bild (Fälschender) während der andere Algorithmus versucht die Fälschung zu erkennen (Ermittelnder). Gelingt es dem Ermittelnden die Fälschung als solche zu identifizieren, lernt der Fälschende daraus und wird stetig besser. Dieser Prozess wird auch als Deep Learning bezeichnet.
Welche Arten von Deepfakes gibt es?
Die erste und wohl weitverbreitetste Art ist das Austauschen von Gesichtern in Bildern oder Videos, das sogenannte Face Swapping. Hier werden meist die Köpfe von berühmten Personen genommen und in einen anderen Kontext gesetzt.
Eine Ähnliche Methode ist das Voice Swapping. Wie der Name schon sagt, werden hier Stimmen oder generelle Audioinhalte so manipuliert, dass sie wie eine bestimmte Person klingen. Diese Methode geht einher mit der Verfremdung von sogenannten Facial expressions, wodurch das gesprochene Wort mit der Bewegung der Lippen und der Mimik übereinstimmt.
Zu guter Letzt gibt es noch das Body Puppetry. Hierbei werden Körperbewegungen analysiert und können sogar in Echtzeit imitiert werden.
Warum sind Deepfakes so gefährlich?
Mit dem Beginn der Technologie 2014 wurde diese stetig ausgebaut und verbessert. 2017 war die Technik dann so weit, dass die ersten Videos produziert werden konnten. Das brachte Internetnutzende dazu, Deepfakes für die Manipulation von pornografischen Inhalten auszunutzen, welche erstmals auf der Internetplattform Reddit bereitgestellt wurden. Diese Videos bestanden daraus, prominente Personen in kompromittierenden Posen darzustellen. Laut einer Studie von Sensity (damals noch bekannt unter dem Namen Deeptrace) waren 2019 96 % aller Deepfake-Videos pornografisch und betrafen ausschließlich FLINT.2
“The development of full artificial intelligence could spell the end of the human race.“
- Stephen Hawking
Mit der Zeit und der beständigen Weiterentwicklung des Deep-Learning-Verfahrens entstanden so immer mehr Youtube-Kanäle mit dem Ziel der Täuschung. Fälschungen von Politiker:innen, Schauspieler:innen und anderen Personen des öffentlichen Lebens erblickten das Tageslicht. 2018 - 2020 verdoppelt sich die Zahl der Fake-Videos alle sechs Monate und bringt es im Dezember 2020 so auf über 85.000 Videos im Netz.3
Hao Li, seines Zeichens Deepfake-Experte, warnt, dass wir bald nicht mehr in der Lage sein werden, Deepfakes als solche zu identifizieren. Das Problem sei allerdings nicht die Technologie selbst, sondern die fehlenden Mittel, diese Fakes zu erkennen. „Deepfakes werden in zwei bis drei Jahren perfekt sein“, so Li.4
Die Wahrheit in diesem Statement zeigt sich 2019 bei einem Programmierwettbewerb initiiert von Facebook AI. Der Konzern entwickelte einen Datensatz mit 124.000 Videos, 8 Gesichtsveränderungs-Algorithmen und den dazugehörigen Forschungspapieren. Doch selbst die besten Mitbewerbenden erreichten nur eine Aufdeckungsrate von etwas über 65 %.
“This outcome reinforces the importance of learning to generalize to unforeseen examples when addressing the challenges of deepfake detection. “, erklärt ein Sprecher der Facebook AI.5
Beispiele für den Missbrauch von Deepfakes
Wie groß der Schaden ist, welchen Deepfakes anrichten können, zeigt unter anderem ein Fall von 2018 in Gabun. Der Präsident Ali Bongo, welcher sehr lange nicht in der Öffentlichkeit stattfand und teils als tot erklärt wurde, veröffentlichte ein Video mit einer Ansprache. Politische Gegner betitelten besagtes Video als Deepfake und lösten somit einen Putschversuch durch das Militär aus.
TW: Gewalt an Kindern/Jugendlichen
Einen weiteren erschreckenden Fall erzählt X Gonzáles, welche sich stark für härtere Waffengesetze in den USA einsetzt. Gonzáles ist eine überlebende Person des Parkland Schulmassakers und erlangte internationales Ansehen durch ihre emotionale Rede auf einer Gedenkveranstaltung für den Amoklauf. Sympathisierende der Waffengesetze diffamierten Gonzáles in einem Video und stellten sie dar, wie sie die amerikanische Verfassung zerreißt. In dem originalen Video zerreißt sie eine Zielscheibe.
Ein Beispiel für Voice Swapping zeigt die Manipulation eines Videos der US-Demokratin Nancy Pelosi. Befürwortende Trumps und somit Konkurrenz der Sprecherin des Repräsentantenhauses bearbeiteten ein Video so, dass diese darin betrunken und etwas durcheinander wirkt. Die Fälschung wurde millionenfach geklickt und das, obwohl Pelosi gar keinen Alkohol trinkt.
TW: Sexualisierte Gewalt
Der nächste Skandal fand um die Journalistin Rana Ayyub statt. Die Inderin gab einen Kommentar zu der nationalistischen Partei BJP ab und bezichtigte diese der Verteidigung von Kinderschändenden. Die Konsequenz war ein gefälschter Porno, welchen verfeindete Personen von ihr anfertigten, um somit ihre Glaubwürdigkeit zu untergraben.
Welche Apps gibt es, um Deepfakes zu erstellen?
DeepFaceLab: Die wohl bekannteste Open-Source-Anwendung ist DeepFaceLab. Laut den Entwickelnden der App werden 95 % aller Deepfake-Videos mit DeepFaceLab generiert. Die App macht es möglich, Gesichter oder ganze Köpfe zu tauschen, das Alter einer Person zu modifizieren oder die Lippenbewegungen von fremden Personen anzupassen. Erhältlich ist DeepFaceLab für Windows und Linux.
Zao: Anders als DeepFaceLab ist Zao eine App für das Smartphone. Die aus China stammende und äußerst populäre Anwendung erstellt Deepfake-Videos in Sekundenschnelle und zielt damit mehr auf den Spaßfaktor ab. Bisher ist die App allerdings nur in China oder mit einer chinesischen Telefonnummer auf Android und iOS verfügbar. Zuletzt war die App in der Kritik aufgrund ihrer fragwürdigen Datenschutzbestimmungen. Nutzende treten beim Verwenden der App jegliche Rechte am eigenen Bild und Video ab.
FaceApp: Die Anwendung gewann 2019 zunehmend an Beliebtheit. Sie bietet zahlreiche Funktionen wie etwa der Verjüngung oder Alterung, dem Hinzufügen von Bärten, Make-up, Tattoos oder Frisuren und sogar der Veränderung der eigenen Geschlechtsidentität. Allerdings hat auch FaceApp genau wie Zao reichlich Kritik aufgrund seiner Datenschutzrichtlinien einzustecken. Auch hier werden die Rechte am eigenen Bild und Video abgetreten. Verfügbar ist das Ganze für Android und iOS.
Avatarify: Den Schluss macht Avatarify. Mit dieser Anwendung können Nutzende Live-Deepfakes in Videochats erzeugen. Die Technologie ist in der Lage, Gesichtsbewegungen wie Augenzwinkern und Mundbewegungen in Echtzeit nachzustellen und erzielt somit äußerst realistische Imitationen. Die Grundvoraussetzungen sind allerdings nicht ohne. So benötigt man eine leistungsstarke Grafikkarte und noch weitere Zusatztools, um die Installation ausführen zu können. Erhältlich ist das Ganze für Windows, Mac und Linux oder in einer abgespeckten Form auch für iOS.
Wie erkenne ich einen Deepfake?
Einen Deepfake zu enttarnen, kann manchmal gar nicht so einfach sein. Als erstes sollte immer der Zusammenhang des Videos oder des Bildes geprüft werden und ob der Kontext Sinn ergibt. Das FBI hat außerdem eine Liste veröffentlicht6, in der es Merkmale von Deepfakes aufzeigt. Diese Liste beinhaltet unter anderem:
- Visuelle Indikatoren wie Verzerrungen, Verformungen oder Unstimmigkeiten
- Deutlicher Augenabstand/Platzierung der Augen
- Auffällige Kopf- und Rumpfbewegungen
- Synchronisationsprobleme zwischen Gesichts- und Lippenbewegungen und dem dazugehörigen Ton
- Deutliche optische Verzerrungen, meistens bei Pupillen und Ohrläppchen
- Undeutliche oder verschwommene Hintergründe
- Visuelle Artefakte im Bild oder Video
Mit dem DeepFake-o-meter können außerdem Videodateien analysiert und enttarnt werden.
Aber ist Deepfake denn nur schlecht?
Deepfakes sind nicht ausschließlich negativ behaftet. Zum Beispiel haben sie in der Filmwelt einen großen Mehrwert. So wurde zum Beispiel Luke Skywalker in der Serie Mandalorian künstlich verjüngt. Disney plant darüber hinaus noch weitere Deepfake-Filme mit seiner Technologie Disney Megapixel-Deepfakes. So sollen in Zukunft Filme mit bereits verstorbenen Schauspieler:innen gedreht werden können.
Fortschritte gibt es auch im Bereich E-Training. So hat das Software-Unternehmen Synthesia eine KI entwickelt, die Videos aus geschriebenem Text erzeugt. Die Videos beinhalten künstlich erstellte Personen, die den gewünschten Inhalt wiedergeben können. Im Fall von Synthesia wird diese Technologie genutzt, um E-Learning-Kurse, Präsentationen, personalisierte Videos oder Chatbots zu erstellen.
Ein weiteres Beispiel für die innovative Verwendung der Deepfake-Technologie zeigt ein Forschungsteam aus Moskau. Sie haben es geschafft der Mona Lisa Leben einzuhauchen. Bestaunen kann man das sich bewegende Ölgemälde auf Youtube.
1 https://www.youtube.com/watch?v=cQ54GDm1eL0
2 https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
3 https://sensity.ai/how-to-detect-a-deepfake/
4 https://www.cnbc.com/2019/09/20/hao-li-perfectly-real-deepfakes-will-arrive-in-6-months-to-a-year.html
5 https://ai.facebook.com/datasets/dfdc
6 https://www.ic3.gov/Media/News/2021/210310-2.pdf