Düsseldorf. Es ist heute kinderleicht, Sex-Videos zu manipulieren und Frauen im Netz zu demütigen. Experten sind enttäuscht von Politik und Justiz.
Seit 2017 kursieren im Netz immer mehr manipulierte Porno-Videos, in denen Gesichter ausgetauscht wurden. Das Phänomen werde völlig unterschätzt, warnten Sachverständige im Gleichstellungsausschuss des NRW-Landtags. Sie unterstützen einen FDP-Antrag zum Stopp dieser „Pornofakes“.
Was sind Deepfakes und Pornfakes?
Bilder, Audio-Aufnahmen und Videos lassen sich mit Hilfe von Künstlicher Intelligenz täuschend echt fälschen. Dabei werden Politikern Worte, die sie nie gesagt haben, in den Mund gelegt, zum Beispiel eine falsche Ankündigung einer AfD-Verbots durch Bundeskanzler Olaf Scholz (SPD). Die Landesanstalt für Medien NRW nennt als Beispiel ein YouTube-Video des rechten Influencers Erik Ahrens, in dem erklärt wird, wie man ein harmloses Tanzvideo von Dritten ohne deren Wissen und Zustimmung so bearbeiten kann, dass es wirkt, als sei das Video eine Performance zur Unterstützung der AfD.
Eine weit verbreitete Variante ist das Einfügen von Gesichtern in Porno-Videos. Opfer dieser Manipulationen sind Politikerinnen wie zum Beispiel Annalena Baerbock und Kamala Harris oder auch Frauen aus dem Bekanntenkreis eines Täters. 2024 kursierten auf der Plattform „X“ stundenlang KI-generierte sexualisierende Bilder der Sängerin Taylor Swift, die laut der Zeitung „The Guardian“ 50 Millionen Mal gesehen wurden, bevor sie gelöscht wurden. Es gibt auch Männer, die sich an ihrer Ex-Freundin rächen, indem sie Fake-Pornos verbreiten.
Ist das ein großes Problem?
Ja. Früher waren für Deepfakes Spezialisten nötig, die dafür große Mengen Audio- und Videomaterial verwendeten. „Heute ist das sehr einfach“, sagte Jacqueline Sittig vom Deutschen Juristinnenbund in der Expertenanhörung des NRW-Landtags. Spätestens seit dem Aufkommen der so genannten Bild- und Audiogeneratoren könne im Prinzip jeder Deepfakes erstellen, schreibt Maria Pavelec vom Zentrum für Ethik der Universität Tübingen in ihrer Stellungnahme. Diverse Apps, zum Beispiel Varianten der inzwischen eingestellten digitalen Entkleidungs-App „DeepNude“ und spezielle Dienstleister unterstützten das Erstellen von sexualisierten Deepfakes.
Auf der einen Seite ist es also fast kinderleicht, Bilder und Videos zu fälschen, auf der anderen Seite haben die meisten Konsumenten solcher Videos kein schlechtes Gewissen. In einer Studie der IT-Sicherheitsfirma Home Security Heroes von 2023 wurden 1500 US-amerikanische Männer gefragt, ob sie sich beim Konsum von Pornofakes schuldig fühlten, was 74 Prozent verneinten. Auch bei den Tätern sei das Unrechtsbewusstsein „wahnsinnig gering“, sagte Anna Wegschneider von der gemeinnützigen Organisation „HateAid“.
Gefahr der Desinformation
Die Landesanstalt für Medien NRW schreibt in ihrer Stellungnahme: Die Folgen von Deepfakes und Pornfakes können verheerend sein. Deepfakes, die dazu verwendet werden, um Meinungen zu beeinflussen, indem sie zum Beispiel Aussagen von Politikerinnen und Politikern fälschen, sorgen dafür, dass sich Desinformation rasant verbreitet, da die Aussagen häufig zu einer Emotionalisierung und daher auch zu einer unreflektierten Weiterverbreitung führen. Eine weitere Folge kann ein erhöhtes Misstrauen in die mediale Berichterstattung sein.“
Über welche Kanäle werden die Fälschungen verbreitet?
Oft über Messengerdienste wie Telegram, was wegen der Verschlüsselung die Kontrolle enorm erschwert. Es gibt auch Online-Plattformen, die sich auf Sex-Deepfakes spezialisiert haben. Jacqueline Sittig vom Deutschen Juristinnenbund sagte im Landtag, die Fälschungen würden auch schnell und unkontrolliert über kostenlose und frei zugängliche Pornoplattformen wie „xHamster“ oder „YouPorn“ verbreitet. „Einmal online gestellt, verteilen sich Kopien über die ursprüngliche Plattform hinaus, ebenso über Instagram-Accounts und Telegram-Gruppen“, so Sittig.
Wer sind die Opfer?
Fast immer Frauen. Eine ältere Studie aus dem Jahr 2019 kam zu dem Ergebnis, dass 96 Prozent aller Deepfakes pornografisch und 100 Prozent der Opfer weiblich seien. Neuere Zahlen der IT-Sicherheitsfirma Home Security Heroes aus dem Jahr 2023 unterstreichen dies. Mechthild Appelhoff von der Landesanstalt für Medien NRW erklärt, dass auch bei politisch motivierten Deepfakes meist Frauen zu den Opfern zählen.
Für Deutschland gibt es keine Daten, aus denen hervorgeht, wie viele Menschen von Deepfakes betroffen sind. Der Deutsche Juristinnenbund weist auf eine empirische Studie von 2021 aus Australien, Neuseeland und Großbritannien hin: Demnach seien 38 Prozent von 6109 Befragten schon einmal Opfer von „bildbasierter sexualisierter Gewalt“ gewesen.
Was bedeutet das für die Opfer?
Die Auswirkungen seien „verheerend“, sagte Maria Pavelec von der Uni Tübingen. Sexualisierte Deepfakes verursachten Depressionen und Angstzustände und hätten in der Vergangenheit sogar zu Selbstmorden geführt. Manche empfänden die Folgen wie die einer physischen Vergewaltigung.
Was kann man dagegen tun?
Zunächst einmal müssten die Menschen verstehen, dass dieses Problem rasant größer werde, betonten die Sachverständigen. Der strafrechtliche Schutz für die Opfer sei in Deutschland „unsystematisch“ und „lückenhaft“ und im Grunde für die analoge Welt konzipiert, nicht für die digitale. Täter und Plattformbetreiber sitzen oft im Ausland, und bis die strafrechtlichen Instrumente – wenn überhaupt – wirkten, seien die Videos längst über viele Kanäle verbreitet worden und kaum noch zu stoppen.
Australien bestraft seit 2024 die Erstellung und Verbreitung nicht einvernehmlicher Deepfakes mit bis zu sieben Jahren Haft. Haftstrafen Drohen Herstellern und Konsumenten auch in Südkorea, wo Deepfake-Pornos sogar eine nationale Krise auslösten. In den USA haben zehn Bundesstaaten Sex-Deepfakes unter Strafe gestellt. In der EU muss eine neue Richtlinie zur Bekämpfung zur Gewalt gegen Frauen, die auch Sex-Deepfakes unter Strafe stellt, bis 2027 in nationales Recht überführt werden, also auch in Deutschland. Auch der Bundesrat dringt auf ein Gesetz.
Die Experten im Gleichstellungsausschuss schlossen sich im Wesentlichen den Empfehlungen der FDP-Landtagsfraktion an. Dazu zählen bessere Unterstützungsangebote für Opfer, die Stärkung der Staatsanwaltschaften, die systematische Erfassung solcher Straftaten in NRW sowie Aufklärungskampagnen.