Deepfakes, die neue Form der digitalen Manipulation

Bilder sind glaubhafter als Worte. Deepfakes nutzen genau diese Leichtgläubigkeit. Erfahre heute mehr darüber.
Deepfakes, die neue Form der digitalen Manipulation
Valeria Sabater

Geschrieben und geprüft von der Psychologin Valeria Sabater.

Letzte Aktualisierung: 29. Juli 2022

Es sieht aus wie Hexerei, ist es aber nicht. In Wirklichkeit handelt es sich um eine Zukunftsentwicklung, eine künstliche Intelligenz, die den Büchern von Arthur C. Clarke würdig ist. Deepfakes sind digital veränderte Videos, die es uns ermöglichen, das Gesicht einer Person durch ein anderes zu ersetzen. Das Ergebnis ist so perfekt, dass jeder Person Worte oder Aktivitäten zugeschrieben werden können, die sie in Wirklichkeit nie gesagt oder getan hat.

Die meisten Menschen nutzen dieses Mittel, um Freunden und Familie Streiche zu spielen. So haben viele Menschen ihr Gesicht auf das Gesicht eines bekannten Schauspielers oder Sängers gesetzt: Lady Gaga, Leonardo DiCaprio, Captain America, Scarlett Johansson, etc. So finden sie sich plötzlich in einem Musikvideo tanzend wieder oder spielen die Hauptrolle im Clip eines berühmten Films.

Technologie kann für harmlose oder kriminelle Zwecke eingesetzt werden. Ein Beispiel ist Raffaela Spone, eine 50-jährige Einwohnerin einer Stadt in Pennsylvania. Die Hausfrau manipulierte Fotos der Cheerleader-Gruppe ihrer Tochter, um die Mädchen dazu zu bringen, mit dem Cheerleading aufzuhören. Sie erstellte pornografische Bilder und verbreitete sie.

Frau Spone wurde verhaftet und wegen Cyberstalking angeklagt. Ihr Ziel war nichts anderes, als die potenziellen Rivalen ihrer Tochter aus dem Weg zu räumen. Ihre manipulierten Fotos wurden in der Schule und in den sozialen Medien verbreitet. Zum Glück bemerkte die Polizei, dass sie mit der Technologie der künstlichen Intelligenz erstellt worden waren.

Ein weiteres Beispiel ist ein Video von Obama, das auf YouTube kursierte und in dem er Donald Trump als Idioten bezeichnete. Dieses Video löste eine große Medienkontroverse aus. Es handelte sich um ein Experiment der Universität von Washington, das den Effekt demonstrierte, den die Manipulation von Videos durch einen Algorithmus der künstlichen Intelligenz haben könnte.

Deepfakes, die neue Form der digitalen Manipulation

Deepfakes und die Bedeutung von kritischem Denken

Deepfakes sind in Mode. Das Gesicht einer Person auf den Körper einer anderen Person zu setzen, um sie dazu zu bringen, etwas Bestimmtes zu sagen oder zu tun, kann ein großartiges Werkzeug für Erfindungsreichtum sein. Es gibt sogar eine urbane Legende, die besagt, dass Tom Cruise auftaucht, wenn du das Wort Deepfake dreimal sagst.

Eine Forschungsarbeit der Universitäten Victoria (Kanada), Nottingham Trent (Großbritannien) und LUISS Guido Carli (Italien) erinnert uns an etwas Offensichtliches: Fotomanipulation gibt es schon seit dem 19. Jahrhundert.

Das Aufkommen von Deepfakes hat jedoch einen Wendepunkt markiert. In vielen Fällen werden sie für kriminelle Zwecke wie Pornografie, Fake News oder Finanzbetrug genutzt. Das Problem ist so ernst, dass es wahrscheinlich bald reguliert werden wird.

Im Zeitalter ist Täuschung durch News oder Bilder an der Tagesordnung. Die sozialen Auswirkungen sind enorm. Wir müssen darauf vorbereitet sein, diese manipulativen Mittel aufzudecken.

Wenn Bilder mehr Macht haben als Worte (und die Wahrheit)

Es ist leichter Bildern als Worten zu glauben. Deepfakes verändern jedoch die Wahrheit, indem sie visuelle Dokumente manipulieren. Ein Beispiel dafür ist, was in Venedig während der Pandemie geschah. Nach dem Lockdown wurden Bilder von schwarzen Schwänen veröffentlicht, die sich ruhig durch das Wasser der Kanäle bewegten.

In jenen Tagen sahen wir auch seltsam geformte Fische in den überfluteten Straßen. Aber nichts war wahr. Die Schwäne waren das Produkt einer künstlichen Intelligenz. In der Welt der Desinformation sind Deepfakes ein großartiger Verbündeter.

Pornografische Inhalte und Deepfakes

Erinnern wir uns an den Fall von Frau Raffaela Spones, die die Cheerleader aus der Gruppe ihrer Tochter aus dem Weg schaffen wollte. Die Deepfake-Technologie wird oft als Mittel zur Belästigung und Rache eingesetzt. Um das zu tun, gibt es nichts Besseres, als pornografische Videos zu verwenden. Wähle einfach einen Clip und platziere das Gesicht der Person, die du möchtest.

Dann kommt der nächste Schritt: die Verbreitung. Es ist wichtig zu wissen, dass pornografische Videos, die mit der Deepfake-Technologie erstellt wurden, in Schulen und Arbeitsumgebungen verwendet werden. Es ist eine sehr effektive Form des Mobbings.

Die Realität wird gehackt

Deepfakes tauchten 2007 auf, kurz bevor Fake News an der Tagesordnung waren. Heute hacken all diese Trends auf unserer Realität herum und verfälschen sie komplett. Sie werden in Verleumdungskampagnen eingesetzt, um Personen des öffentlichen Lebens anzugreifen. Außerdem bewegen Deepfakes laut einer Veröffentlichung im Crime Science Journal eine große Summe Geld für kriminelle Zwecke.

Es wird geschätzt, dass mehr als 50.000 Deepfakes im Internet kursieren, wobei viele dieser Inhalte als wahr verkauft werden.

Frau sieht Deepfakes

Was können wir gegen diese Art von Technologie tun?

Länder wie China haben den Einsatz dieser Art von künstlicher Intelligenz verboten. Facebook hat einen Fonds von mehr als 10 Millionen Dollar eingerichtet, um Werkzeuge zum Schutz der Bevölkerung vor Missbrauch zu entwickeln. Microsoft schlägt zum Beispiel vor, den Video Authenticator zu nutzen, um herauszufinden, ob das Video oder Bild, das wir erhalten haben, manipuliert wurde.

Über die Ressourcen hinaus, die uns zur Verfügung stehen, um Deepfakes zu identifizieren, solltest du folgende Punkte nicht vergessen: Erstens solltest du diese Technologie nicht für Rachezwecke einsetzen. Und zweitens solltest du ein kritisches Gespür entwickeln, um Deepfakes zu erkennen. In einer Welt, in der die Realität zunehmend manipuliert wird, kann uns nur der Filter der Vorsicht schützen


Alle zitierten Quellen wurden von unserem Team gründlich geprüft, um deren Qualität, Verlässlichkeit, Aktualität und Gültigkeit zu gewährleisten. Die Bibliographie dieses Artikels wurde als zuverlässig und akademisch oder wissenschaftlich präzise angesehen.


  • Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
  • Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). “Deepfakes: Trick or treat?”. Business Horizons63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
  • Roose, Kevin (4 March 2018). “Here Come the Fake Videos, Too”. The New York Times. ISSN 0362-4331

Dieser Text dient nur zu Informationszwecken und ersetzt nicht die Beratung durch einen Fachmann. Bei Zweifeln konsultieren Sie Ihren Spezialisten.