Düsseldorf. Bei der Innenministerkonferenz geht NRW eine rechtliche Grauzone an: Missbrauchsdarstellungen, erstellt durch Künstliche Intelligenz.
NRW-Innenminister Herbert Reul (CDU) will im Kampf gegen Kindesmissbrauch und sexualisierte Gewalt die Strafverfolgung von sogenannten Deepfakes erleichtern. Dabei handelt es sich um Videos und Fotos, die mit Hilfe Künstlicher Intelligenz (KI) meist auf Basis vorhandener Dateien neu erschaffen wurden.
„Wir müssen in Deutschland schon jetzt klare Grenzen ziehen, um den Ermittlern das nötige juristische Werkzeug zu geben“, sagte Reul unserer Redaktion. NRW wird bei der an diesem Mittwoch beginnenden Innenministerkonferenz (IMK) einen entsprechenden Beschlussvorschlag machen. Darin wird die Bundesregierung aufgefordert, die bereits laufenden europäischen Regulierungsbemühungen mit eigenen gesetzgeberischen Initiativen zu begleiten, „um die Herstellung und Verbreitung sexualisierter Deepfakes effektiv zu bekämpfen“. Man sei der Auffassung, dass es sich hierbei um „eine neue und in ihrer Bedeutung zunehmende Form sexualisierter Gewalt handelt“, heißt es in dem Beschlussvorschlag, der unserer Redaktion vorliegt.
Leistungsstarke KI-Software ist auf dem Vormarsch und immer besser in der Lage, täuschend echte Fotos und Videos zu kreieren. Auf europäischer Ebene wird bereits an Kennzeichnungspflichten und der Anwendung von Grundrechten auf den Umgang mit täuschend echten Inhalten gearbeitet. Für den Umgang mit Missbrauchsdarstellungen ergibt sich jedoch aus Sicht der NRW-Ermittler gesonderter Handlungsbedarf.
Kinderpornografie per KI: Instagram-Fotos werden neu montiert
„Die schöne neue KI-Welt zeigt immer mehr ihre hässliche Seite. Deepfakes sind nichts Neues, können auch hier und da lustig sein. Aber wenn es um Darstellung von sexualisierter Gewalt in jeglicher Form geht, hört der Spaß definitiv auf“, sagte Reul.
Im EU-Raum waren zuletzt bereits Missbrauchsdarstellungen von Jugendlichen aufgetaucht, deren Instagram-Fotos mit anderweitig im Netz verfügbaren Nacktsequenzen täuschend echt montiert worden waren. Obwohl auch das für die Opfer traumatisierend wirken kann, ergibt sich bei solchen KI-generierten Bildern von imaginierten Missbrauchstaten offenbar eine rechtliche Grauzone.
Experten warnen: KI wird Verbreitung von Missbrauchsdarstellungen antreiben
Experten warnen schon länger, dass die Künstliche Intelligenz die Verbreitung von Missbrauchsdarstellungen noch einmal deutlich beschleunigen und Gewalttaten durch Fotocollagen verschleiern werde. Obwohl die Zahl der angezeigten Deepfakes noch sehr gering ist, warnt Reul vor einem wachsenden Problem: „Sexualisierte Gewalt ist abscheulich und strafbar - egal ob künstlich erstellt oder nicht.“ Die Strafverfolgungsbehörden benötigten „Ressourcenausstattung, Fortbildungen und Sensibilisierung“, die Opfer wiederum spezialisierte Beratungsstellen und -netzwerke, so der NRW-Beschlussvorschlag.