Berlin. Künstliche Intelligenz ermöglicht Nutzern das Erstellen von eigenen Fantasie-Videos. Experten warnen: Das facht Kindesmissbrauch an.

Das Bild ist so schnell wie einfach erstellt. Im Textfeld tippt der Nutzer ein, was er sehen möchte. Zum Beispiel: „Eine Familie mit Kindern, die am Strand spaziert.“ Ein paar Optionen gibt es noch, ob das Bild eher altmodisch, künstlerisch oder fotografisch aussehen soll. Dann ein Klick – und das Foto taucht auf, so echt, als wäre es an einem Sommerabend am Strand von dem Familienvater geschossen. Gespeist aus Milliarden an Bildern und Daten, die sich die Software im Netz sucht.

Lesen Sie auch: Kampf gegen Kindesmissbrauch – warum das schärfere Gesetz nicht hilft

Es ist die kreative Seite der Künstlichen Intelligenz (KI), also einer lernende Software, die selbst analysiert, bastelt, gestaltet. Nicht mit Gehirnzellen, sondern mit Daten und Algorithmen. „Text-to-image“ nennt sich die Technologie, mit der Software-Hersteller Nutzerinnen und Nutzer anlocken, sodass sie selbst nur ihre „Träume“ in ein Textfeld tippen müssen.

Das Gesetz verbietet auch das Erstellen von künstlichem Material mit Kindesmissbrauch

Doch dazu gehört die Schattenseite der KI, die dunklen Fantasien, die illegalen und gewaltverherrlichenden. Täter erstellen Bilder und Videos, die Kinder in sexuellen Handlungen oder Posen zeigen. Das ist nach deutschem Recht illegal, Paragraf 184 verbietet das Erstellen und Verbreiten von „Kinderpornografie“. Auch wenn es nur fiktive, künstlich erstellte Bilder von Kindesmissbrauch ist. Auch wenn es die Szenen nicht in der realen Welt gibt.

Ermittler jagen Sexualstraftätern hinterher – oftmals sind die Cyberkriminellen schneller.
Ermittler jagen Sexualstraftätern hinterher – oftmals sind die Cyberkriminellen schneller. © picture alliance / Geisler-Fotopress | Christoph Hardt/Geisler-Fotopres

In Foren im sogenannten „Darknet“, einer verschlüsselten Form des Internets, die nur mit speziellen Programmen zu erreichen ist, tauschen sich Sexualstraftäter aus, posten Videos und Bilder in Chats und auf „Marktplätzen“. Kinder-Hilfsorganisationen und auch Fachleute sind alarmiert. Recherchen der BBC in England sowie der „Washington Post“ in den USA legen nahe, dass eine Flut an Material bereits in den illegalen Foren im Umlauf ist – auch weil es so einfach zu erstellen ist, mit kostenlosen und frei verfügbaren Programmen im Internet.

Das Problem: Auch wenn Anbieter dieser Programme in Nutzungsbedingungen einen Missbrauch untersagen, braucht es laut der Recherchen nur ein paar Kniffe, um die Sicherheitsschranken für diese Missbrauchsdarstellungen zu umgehen, etwa in dem sie andere Sprachen nutzen als Englisch. Auch darüber tauschen sich Täter im „Darknet“ aus und produzieren unter anderem Szenen mit Vergewaltigungen von Kindern mit Hilfe der KI. Auch Kleinkindern.

In Japan sind kinderpornografische Darstellungen nicht verboten – wenn es Comics sind

Deutschland hat ein rigides Sexualstrafrecht. Seit Anfang des Jahres steht auch der Kauf von Kindersexpuppen in Deutschland unter Strafe. Doch das ist nicht überall in der Welt so. Laut BBC veröffentlichen die Täter das KI-generierte Missbrauchsmaterial auch auf einer japanischen Plattform. Dort präsentieren Nutzer normalerweise Cartoons, Comics und japanische Mangas. Doch offenbar auch illegale Bilder. In Japan ist Kinderpornografie ebenso verboten – allerdings nicht, wenn die Darstellungen als Cartoon oder Comic publiziert sind. Die Firma gibt an, entschieden gegen KI-generierte Bilder vorzugehen, die wie echte Missbrauchs-Szenen mit Kindern aussehen. Man überwache KI-produziertes Material stärker.

Oftmals werben die Täter auf der japanischen Plattform mit weniger heftigen Bildern für „unzensierte Kunst“ auf anderen Plattformen im Internet – mit weniger Kontrolle durch die Anbieter. Hilfsorganisationen sind besorgt über das Tempo, in dem sich die Programme der KI entwickeln: immer authentischer sind die Darstellungen, immer schneller und einfacher die Bedienung. In einem illegalen Online-Forum mit 3000 Mitgliedern sollen nach Angaben der Hilfsorganisation Active Fence knapp 80 Prozent in einer internen Abfrage angegeben haben, KI-Software für Darstellungen des Kindesmissbrauchs zu nutzen – oder nutzen zu wollen.

KI überrennt den Markt mit Gewalt an Minderjährigen, so scheint es jedenfalls. Und die Ermittler bei der Polizei? Das Bundeskriminalamt (BKA) antwortet auf eine Anfrage unserer Redaktion nur spärlich mit ein paar Sätzen: „Dem BKA ist bekannt, dass mithilfe von KI potenzielle Täter kinderpornografische Inhalte erstellen können.“ Danach folgt ein Verweis auf die Rechtslage. Und: Aus „kriminaltaktischen Gründen“ könne man keine weitere Auskunft geben.

Schon „Second Life“ brachte Fälle von Kindesmissbrauch an die Öffentlichkeit

Wie groß das Ausmaß von KI-generierter Kinderpornografie ist, lässt sich für Deutschland schwer sagen. Auch Staatsanwälte, die bisher gegen Sexualstraftäter ermitteln, haben bisher keine oder kaum Verfahren, in denen Künstliche Intelligenz das Beweismaterial erstellt hat. Fachleute, die an Schulen unterwegs sind, kennen diese Fälle – allerdings meist nur vom Hörensagen.

Es gibt die Fälle, doch bei den Behörden tauchen sie nicht auf. Einzelne Fachleute warnen nun: Die Polizei verschläft – wie andere Industriezweige auch – den Siegeszug der KI. Die Cyberkriminellen sind schneller, nicht zum ersten Mal in der virtuellen Welt. Erst vor wenigen Wochen warnte die US-Polizeibehörde FBI vor Erpressungen mit künstlich erstellten Sex-Videos: Bilder von echten Menschen holen die Täter sich von Profilen in den sozialen Netzwerken wie Instagram. Und generieren mit Hilfe von KI ein Sexvideo.

Überraschend ist der Missbrauch neuer Technik nicht. Vor knapp 20 Jahren startete „Second Life“, eine virtuelle Welt, die sich Nutzer selbst zusammenbasteln konnten. Es dauerte nicht lange, da geriet das Spiel in die Schlagzeilen. Auch in Deutschland ermittelten Staatsanwälte, weil in der virtuellen Welt kinderpornografische Darstellungen auftauchten, Kinder virtuell vergewaltigt worden sein sollen.

Es ist eine Flut an Bildern, mit denen Ermittler in Verfahren zu Kindesmissbrauch konfrontiert sind.
Es ist eine Flut an Bildern, mit denen Ermittler in Verfahren zu Kindesmissbrauch konfrontiert sind. © dpa | arne Dedert

Missbrauch von Kindern – künstlich erstellt, virtuell, ein Fake. Ist das am Ende nicht besser, als wenn Täter Kinder in der realen Welt vergewaltigen? Doch für die betroffenen Kinder sehen Fachleute trotz KI keine Entwarnung. Im Gegenteil. Durch künstlich generiertes Material könnten Täterinnen und Täter ihre „Hemmschwellen zu weiteren Delikten“ abbauen, warnt Thomas-Gabriel Rüdiger Leiter des Instituts für Cyberkriminologie an der Hochschule der Polizei des Landes Brandenburg. Zugleich entsteht allein durch die schiere Masse an schnell produzierten Bildern eine „Art Normalität“, die am Ende Gewalt verharmlost.

IT-Fachleute in den USA entwickeln eine Art Wasserzeichen für Original-Bildern

Ein weiteres Problem: Die Masse an Material kann Ressourcen bei den Polizeidienststellen und Staatsanwaltschaften binden. Die Ermittler sind schon jetzt oftmals überfordert mit der hohen Zahl an mutmaßlichen Missbrauchsfällen im Internet. Noch ist es offenbar nicht Alltag in den Sicherheitsbehörden – doch allein das komplizierte Unterscheiden von „echtem“ und „künstlichem“ Material kostet Personal und Zeit. Ermittler, die fehlen, um Kinder aus Netzwerken von Gewalttätern zu befreien.

Lesen Sie auch: WhatsApp und Co. – so leicht machen sich Schüler strafbar

Eine Lösung im Kampf gegen die neue Technik sehen Fachleute in: neuer Technik. IT-Fachleute der Cornell Universität in den USA entwickeln eine Art Wasserzeichen für Original-Bilder und Video, das Experten auch noch erkennen können, wenn eine KI-Maschine das Material verfremdet und neu zusammengebastelt hat. So soll Tätern erschwert werden, ihre Spuren zu verwischen.

Ermittler warnen mit Foto-Kampagnen vor Missbrauch an Kindern.
Ermittler warnen mit Foto-Kampagnen vor Missbrauch an Kindern. © dpa | Boris Roessler

Und sogar die deutsche Kriminalpolizei nutzt lernende Software im Kampf gegen Kinderpornografie, wertet mit Hilfe von Programmen Unmengen an Videos und Bildern aus, filtert, priorisiert in der Masse der Daten im Internet, die der Polizei von Anbietern der Plattform auch teilweise zugespielt werden.

Künstliche Intelligenz als „Eintrittskarte“ für illegale Kindesmissbrauchs-Plattformen

Unter dem Decknamen „Operation Weckruf“ gelang Ermittlern vor einigen Jahren ein großer Erfolg gegen das illegale Forum „Boystown“, durchsuchten Wohnungen, beschlagnahmten Computer. Allein bei einem Tatverdächtigen stellten die Polizisten 18.000 Dateien mit Darstellungen von sexueller Gewalt an Kindern sicher.

Den Tätern auf die Spur gekommen waren die Ermittler mit einem Trick, der ihnen per Gesetz seit einigen Jahren erlaubt ist: Sie verschafften sich Zugang zu dem illegalen Forum, indem sie eine Datei mit Kinderpornografie hochluden, eine Art „Eintrittskarte“, den die Betreiber der Plattformen verlangen. Erstellt war das Material der Polizei mit dem Computer, künstlich generiert mit einer Software.

Lesen Sie auch: Jeden Tag werden in Deutschland 48 Kinder missbraucht