So genannte Deepfakes sind ein noch verhältnismäßig neues Phänomen. Dabei werden mit Hilfe von modernster Bild- und Videoverarbeitung sowie Unterstützung durch künstliche Intelligenz täuschend echte, aber gefälschte Aufnahmen von Personen hergestellt. In einem speziellen Fall werden solche Manipulationen (erstmals) zum strafbaren Vergehen.
Bei Deepfakes wurden zuletzt immer beeindruckendere Videos hergestellt, darunter ein Clip, der Facebook-Chef Mark Zuckerberg zeigen soll, aber in Wirklichkeit eine Fälschung ist. Dabei ist das Gesicht samt Mimik eben kaum oder gar nicht von der Realität zu unterscheiden. Bisher dienen solche Arbeiten dazu, die Möglichkeiten dieser noch sehr neuen Technologie aufzuzeigen und davor auch zu warnen.
Es gibt natürlich zahlreiche Szenarien, wie man solche Fälschungen einsetzen kann, um die Realität zu manipulieren, dazu zählen Politik und ähnliches. Auch der Einsatz in so genannten Rachepornos ist ein für viele beängstigendes Szenario. Denn es ist wohl nur eine Frage der Zeit, bis Deepfakes so alltäglich sind, dass es ohne allzu viel technischen und finanziellen Aufwand möglich ist, das Gesicht eines Ex-Partners in ein Sex-Video zu montieren und das Material dann im Netz zu verbreiten.
Schon jetzt ist die Verbreitung privater Aufnahmen aus "Rache" vielerorts gesetzlich geregelt, also verboten. Der US-Bundesstaat Virginia ist aber laut Ars Technica der erste der USA (und wohl auch weltweit), der Deepfakes als "Class 1 Misdemeanor", also schwerwiegendes Vergehen, eingestuft und das auch gesetzlich festgeschrieben hat.
Dafür wurde aber kein komplett neues Gesetz geschrieben, sondern ein bestehendes erweitert. Denn schon jetzt ist in Virginia die Freigabe von Revenge Porn ohne Zustimmung des Partners unter Androhung von Strafe untersagt. Auch andere Bundesstaaten versuchen sich an vergleichbaren Gesetzen, stoßen dabei aber auch auf Widerstand. Ein in New York vorgeschlagenes Gesetzes stieß laut THR auf Kritik vieler Hollywood-Studios, da diese den Entwurf als zu vage und weitgefasst empfinden und Folgen für den legitimen Einsatz der Technologie befürchten.