Di., 14.02.23 | 21:50 Uhr
Gefälschte Sexvideos: Immer mehr Frauen Opfer von Deepfakes
Plötzlich im Porno gelandet - ohne jemals selbst mitgemacht zu haben? Dank digitaler Fälschungen möglich - sogenannter Deepfakes. Unsere Recherchen zeigen, heute kann es jede und jeden treffen. Ungewollt nackt im Netz: Für die Betroffenen ein Albtraum, sie sind oft hilflos.
Deepfakes. Das sind manipulierte Bilder, die mithilfe von künstlicher Intelligenz erstellt werden. Mit Deepfakes-Technologien kann ich jedes beliebige Gesicht mit meinem austauschen. So ungefähr. Ich kann einfach so tun, als wäre ich die Person und ihr jedes beliebige Wort in den Mund legen. Diese Fakes sind täuschend echt, man kann sie kaum noch erkennen.
Wenn man anfängt, Deepfake-Videos zu recherchieren, merkt man ganz schnell, dass es hauptsächlich Pornos sind. Ich sehe Gesichter von Politikerinnen, Schauspielerinnen, Sängerinnen, Influencerinnen. Also ich habe das Gefühl, dass die Opfer von Deepfake-Videos vor allem Frauen sind.
Baerbock, Merkel, Neubauer - Opfer von Deepfake-Pornos
Pornos im Internet. Das Besondere an dieser Seite MrDeepFakes ist: Die Videos sind nicht echt. Die Gesichter der Frauen wurden mit Deepfake-Technologie getauscht. Ich finde auf der Seite nur bekannte Frauen, auch Promis aus Deutschland - zum Beispiel Annalena Baerbock, Luisa Neubauer oder Angela Merkel, aber auch Moderatorinnen, Schauspielerinnen und Youtuberinnen.

Ich möchte wissen, wie es den Frauen damit geht, dass manipulierte Videos mit ihren Gesichtern auf der Seite zu sehen sind. Ich frage einige an. Eine erklärt sich bereit, vor der Kamera mit uns zu reden. Mrs. Bella ist eine der erfolgreichsten Influencerinnen in Deutschland. Auf Instagram hat sie mehr als zwei Millionen Follower. Bella hat mich für ein Interview nach Köln eingeladen. Wir treffen uns im Büro ihres Managements.
Von Bella habe ich auf MrDeepFakes eine ganze Videosammlung gefunden, in der sie in gleich drei verschiedenen Deepfake Pornos zu sehen ist. Was uns allerdings bis zum Zeitpunkt unseres Interviews mit Bella nicht ganz klar ist, ist, ob sie von dem Video weiß. Im Vorgespräch unseres Interviews hat sie bloß von Deepfake-Fotos gesprochen, die vor zwei Jahren im Netz von ihr kursierten. Sie zeigt sie mir.
Filippa von Stackelberg, Autorin:
"Ah ja, okay, man sieht einen nackten Körper."
Mrs. Bella, Influencerin:
"Genau. Das ist ein echtes Foto, was existiert, aber es wurde auf einer pornografischen Seite geteilt. Ich war total schockiert, weil es sieht super echt aus und du bist so eine Millisekunde in dem Moment so: Hä, was ist das für ein Foto? Erst mal war ich so: Die sieht aus wie ich, aber das bin ja nicht ich, weil ich habe so ein Foto nicht."
Die Fotos wurden mithilfe ihres juristischen Teams entfernt. Ich entscheide mich dazu, ihr auch von dem Pornovideo mit ihrem Gesicht zu erzählen, welches ich auf MrDeepFakes entdeckt habe.
Filippa von Stackelberg, Autorin:
"Ich habe in meiner Recherche eine Seite gefunden, wo ganz viele Deepfake-Pornovideos zu sehen sind, vor allem von Politikerinnen, Schauspielerinnen, prominenten Personen. Und da ist auch ein Video mit deinem Gesicht zu sehen. Ich weiß nicht, ob du das wusstest?"
Mrs. Bella, Influencerin:
"Nee. Ne, das weiß ich nicht."
Filippa von Stackelberg, Autorin:
"Soll ich dir das mal zeigen?"

Mrs. Bella, Influencerin:
"Gerne. Oh, mein Gott. Das ist ja total krank. Das finde ich zum Beispiel, von der Seite, das finde ich wirklich… Man sieht ja auch, dass das Videoausschnitte sind von Videos von mir, die ja wirklich existieren - nur ein bisschen anders."
Filippa von Stackelberg, Autorin:
"Achso, du kannst das zuordnen?"
Mrs. Bella, Influencerin:
"Ich kann es teilweise zuordnen, ja."
Deepfakes sind nur schwer aus dem Netz zu entfernen
Noch während unseres Drehs hat Mrs. Bellas Anwalt die Seite kontaktiert. Doch das Video ist auch Monate nach dem Dreh noch online. Und auch wir haben den Betreiber von MrDeepFakes konfrontiert und herausgefunden, dass er aus der Föderation St. Kitts and Nevis kommt, einem Inselstaat in der Karibik.
Wir wollten wissen, was die Motivation hinter der Seite ist und ob sie das Video von Bella löschen würden. Die Antwort von MrDeepFakes war:
MrDeepFakes:
"Kein Kommentar. An einem Interview nicht interessiert."
Henry Ajder forscht zu Deepfakes. 2019 haben er und seine Kollegen eine Studie veröffentlicht, die davon ausgeht, dass von den damals 15.000 existierenden Deepfakes 96 Prozent Pornos mit Frauen seien.
Millionen Frauen wurden bereits Opfer von Deepfake-Pornos

Henry Ajder, KI-Forscher und Berater:
"Die Lage hat sich seitdem sehr verändert. Daher ist es sehr schwer, heute eine ähnliche Zahl zu nennen. Das liegt daran, dass die Anzahl der benutzerfreundlichen Tools zur Erstellung von neuartigen Deepfakes massiv zugenommen hat. Wir sprechen hier wahrscheinlich von Milliarden von Deepfakes, die mittlerweile erstellt wurden."
Millionen von Frauen sind inzwischen Opfer von Deepfakes. Deepfaking kann heute jede Person, das heißt: Jegliche Medieninhalte zu manipulieren, ist kinderleicht geworden.
Betroffen sind nicht mehr nur Prominente. Ich finde erschreckend viele Deepfake-Pornos von ganz normalen Frauen. Auf der Webseite Image Fap, ein großes Bilderforum, hat ein User Privatbilder von Frauen hochgeladen und wünscht sich, dass die Gesichter der Frauen in Pornos montiert werden. Ich finde heraus, wer die Frauen sind.
Filippa von Stackelberg, Autorin:
"Wie habt ihr euch gefühlt, als ihr das gesehen habt?"
Betroffene:
"Ich war geschockt. Ich wusste gar nicht, was ich dazu sagen soll, muss ich ehrlich sagen."
Betroffene:
"Vor allem dieses Gefühl von jemand hat meine Privatsphäre angegriffen."
Betroffene:
"Die Bilder sind von Januar letztem Jahr, also knapp 17 war ich da gerade mal. Und ich dachte: Okay, wieso ich? Was habe ich dir jetzt getan, dass du meine Bilder nimmst und du dir denkst: Ja man, lass sie mal erniedrigen! So, ne? Also, weiß ich nicht - komisch einfach."
Täter kommen auch aus dem persönlichen Umfeld
Die Gruppe hat einen klaren Verdacht, wer es sein könnte: jemand aus ihrer alten Schule. Der Verdächtige habe nämlich bei Image Fap denselben Namen wie in anderen sozialen Netzwerken.
Betroffene:
"Ich kannte ihn durch meine Schwester, weil meine Schwester mit ihm in der Klasse war. Und was ich ganz interessant finde, ist, er hat sie immer fertig gemacht."
Betroffene:
"So krass, dieser Gedanke, da sind halt auch Bilder, die ich schon vor längerem von Instagram gelöscht habe, schon vor zwei Jahren gelöscht hatte, und dass er die immer noch auf seinem Handy hatte. Das ist auch so krank."
Betroffene:
"Ja, das ist krass."
Betroffene:
"Viele hatten ja einen privaten Account und da fühlt man sich ja irgendwie auch sicher, weil man ja denkt: Jo, ich nehm nur die Leute an, die ich auch kenne, denen ich auch wirklich vertraue. Aber meistens passiert sowas ja immer mit Leuten, die man kennt."
Wir möchten den Verdächtigen konfrontieren. Doch nur wenige Stunden nach meinem Gespräch löscht er sein Profil.
Wie schwer der Umgang mit Deepfakes ist, weiß Anna Lehrmann. Sie ist Beraterin im Verein Frauen helfen Frauen in Fürstenfeldbruck. Bei den Fällen, die sie betreut, gehen Deepfakes oft mit anderen Formen von Gewalt, wie Erpressung oder Bedrohung, einher.
Deepfakes können als Waffe gegen Frauen eingesetzt werden

Anna Lehrmann, Beraterin Frauennotruf Fürstenfeldbruck:
"Grundsätzlich sind die Frauen, die von Deepfakes betroffen waren und die bei uns in der Beratung waren, wegen einem anderen Thema hierhergekommen. Da waren andere Gewaltformen der Auslöser. Ganz viele Frauen, egal mit welcher Gewaltthematik, sagen auch: Ich will gar nichts dagegen tun, weil ich habe so große Angst, dass es dann dadurch noch schlimmer wird. Ich möchte es lieber ignorieren, als jetzt dagegen vorzugehen, rechtliche Schritte einzuleiten, Anzeige zu erstatten oder so."
Politik hat Deepfake-Pornos nicht auf dem Schirm
Für viele Frauen scheint der Kampf gegen diese Art von Gewalt hoffnungslos. Wir haben die zuständigen Ministerien angefragt. Was tut die Bundesregierung gegen Deepfake-Pornos?
Das Bundesjustizministerium hat uns im November geschrieben, dass es „demnächst“ ein Eckpunktepapier für ein Gesetz gegen digitale Gewalt vorlegen wolle. Es soll es Betroffenen einfacher machen, gegen Gewalt im Netz vorgehen zu können. Aber auch drei Monate später kann das Ministerium uns kein Datum nennen.
Nur das Digitalministerium war bereit, persönlich mit uns zu sprechen. Benjamin Brake ist Leiter der Abteilung Digital- und Datenpolitik. Was tut sein Ministerium, um Frauen besser vor Deepfakes zu schützen?

Benjamin Brake, Abteilungsleiter Digital- und Datenpolitik, Bundesministerium für Digitales und Verkehr:
"Die Koalition hat sich ja in ihrem Koalitionsvertrag, also in dem Werden der Koalition, fest vorgenommen, gegen digitale Gewalt im Netz stärker vorzugehen."
Filippa von Stackelberg, Autorin:
"Neben den Apps gibt es auch zahlreiche Webseiten, wie zum Beispiel 4chan, MrDeepFake und Co., wo Deepfakes geteilt werden - ständig. Da gibt es auch Foren, wo Personen dazu aufrufen, Deepfakes zu erstellen. Warum sind diese Plattformen noch online? Bei diesen Webseiten handelt es sich immer um Deepfake-Porn."
Benjamin Brake, Abteilungsleiter Digital- und Datenpolitik, Bundesministerium für Digitales und Verkehr:
"Mir sind mir sind diese Webseiten nicht bekannt. Ich kann sozusagen zu den einzelnen Webseiten und auch dem rechtlichen Rahmen, innerhalb dessen sie sich bewegen, eigentlich keine Ausführungen machen."
Wir wollten wissen, ob das Ministerium dem Interview vom November etwas hinzufügen möchte. Eine Sprecherin des Ministeriums verweist erneut auf die geltende Gesetzeslage. Apps zum Erstellen von Deepfakes möchte das Ministerium nicht verbieten. Um Missbrauch zu verhindern, sieht es die Betreiber von Appstores in der Pflicht.
Auch wenn die Technologie hinter Deepfakes innovativ sein mag, sind Deepfakes gefährlich. Denn sie können als Waffe eingesetzt werden - vor allem gegen Frauen. Ob bekannte Persönlichkeiten oder ganz normale Mädchen, jede kann davon betroffen sein. Die Behörden erfassen Deepfakes nicht einmal systematisch. Und die Politik verspricht zwar bessere Möglichkeiten, gegen Deepfakes vorzugehen, setzt aber vor allem auf die Verantwortung der Plattform.
Dass das nicht reicht, zeigt sich daran, dass die Fakes auch Monate später immer noch online sind.
Stand: 15.02.2023 18:01 Uhr