Berlin. KI kann vieles – auch gefälschte Nacktbilder von Minderjährigen erstellen. Ein solcher Fall sorgt derzeit in Spanien für Aufsehen.
Das Entsetzen in Extremadura, einer Region im Westen Spaniens, ist groß. Der Grund: Nacktbilder minderjähriger Mädchen. Dutzende entsprechende Aufnahmen von mindestens dreißig Mädchen sind im Umlauf. Doch die Kinder und Jugendlichen haben die Bilder weder selbst angefertigt, noch wurden sie heimlich aufgenommen. Wie die spanische Lokalzeitung "El Correo" berichtet, soll es sich um Fälschungen handeln, die mithilfe Künstlicher Intelligenz erstellt wurden.
In ihrer ursprünglichen Form sind die Bilder auf Social Media erschienen. Die Opfer, alle minderjährig zwischen 11 und 17 Jahren alt, bekamen die Fälschungen teilweise von den Tätern selbst zugeschickt.
Gefälschte Nacktfotos in Spanien: Aufschrei der Mütter
Die Mütter der Mädchen lösten via Social Media einen Aufschrei aus. Eine der Mütter, Mirimal Al Adib, eine Gynäkologin mit über 100.000 Instagram-Followern, nutze ihren Instagram-Account, um auf die Situation aufmerksam zu machen. In einem Video erzählt sie, wie ihre Tochter sie über ein gefälschtes Nacktbild informierte, dass sie erhalten habe und dass mehreren Mädchen dasselbe passiert sei. Auch an die Verantwortlichen richtet Al Adib einige Worte: "Ihr wisst nicht, welchen Schaden ihr angerichtet habt".
Eine weitere Mutter erzählte dem Regionalfernsehsender "Canal Extremadura", dass ihr Tochter erst durch Freundinnen erfuhr, dass das Bild von ihr existiert. Im Bericht des Senders heißt es auch, dass es Erpressungsversuche gegeben haben soll. Via Textnachricht soll ein Täter Geld gefordert haben. Als das Mädchen sich weigerte, erhielt sie ein Nacktbild von sich.
Auch interessant: Künstliche Intelligenz – Diese Regeln sollen Bürger schützen
Gefälschte Nacktfotos: Was ist zur Tat und den Tätern bekannt?
Laut "Canal Extremadura" wurden die Bilder mit einer App erstellt, die Künstliche Intelligenz verwendet, um Bilder von nackten Menschen zu erzeugen. Die Polizei vor Ort gab laut "20minutos" bekannt, dass die identifizierten Täter selbst alle minderjährig seien, zwischen 12 und 14 Jahre alt, und aus dem Umfeld der Opfer stammen.
22 Anzeigen seien inzwischen von den Eltern der Opfer eingereicht worden. Die Polizei rechne mit keinen weiteren Anzeigen. Der Fall würde an das spanische Jugendgericht weitergeleitet. Bezüglich der Verbreitung der Bilder hieß es von Seiten der Polizei, dass "es keine Beweise dafür gibt, dass sie die WhatsApp- und Telegram-Gruppen, aus denen sie stammen, verlassen haben". Außerdem sei es sehr kompliziert, die Bilder zu beseitigen: "wenn sie erstmal im Internet sind, ist es schwierig, sie wieder zu entfernen".
Lesen Sie auch: Esken: Durch Missbrauch von KI drohen uns ernste Gefahren
Künstliche Intelligenz: Gefahr des Missbrauchs
Der Leiter der Kinderschutzgruppe der Zentralstelle für Cyberkriminalität, Javier Izquierdo sagte vor Journalisten, dass der spanischen Polizei schon vorher Fälle bekannt waren, in denen Künstliche Intelligenz für die Herstellung von Kinderpornografie eingesetzt wurden. Bis jetzt seien sie "nur nicht auf diese Art an die Öffentlichkeit gelangt", zitiert "20minutos". Die Polizei habe schon Erfahrungen bei solchen Ermittlungen. Um Nachahmungen zu vermeiden, hätten die Ermittler sie bis dato aber nicht publik gemacht haben.
Izquierdo betonte laut der spanischen Zeitung, dass "jede Person, die diese Technologie missbraucht, ein potenzieller Produzent von kinderpornografischen Bildern ist". Es sei nicht mehr nötig, Zugang zu Minderjährigen zu haben – jedes Fotos könne potenziell zur Herstellung dieser Bilder verwendet werden. Aus diesem Grund müsse man "die Bevölkerung für das Risiko dieser Technologien und ihres Missbrauchs sensibilisieren". Die Herstellung von sexuell konnotierten Bildern von Minderjährigen gilt in Spanien als Straftat und wird mit mehreren Jahren Haft bestraft.
Auch interessant: Sprachbot ChatGPT – Das große Risiko sitzt vor dem Computer
KI sorgt für mehr Kinderpornographie im Internet
Auch in Deutschland ist das Erstellen und Verbreiten von fiktiven, künstlichen Bilder, die Kinder in sexuellen Handlungen oder Posen zeigen, laut Paragraf 184 illegal. KI macht es Sexualstraftätern jedoch immer einfacher, entsprechende Videos und Bilder herzustellen. In Foren im "Darknet" werden diese dann geteilt. Kinder- und Hilfsorganisationen und Fachleute sind deshalb besorgt. Aktuelle Recherchen von BBC und Washington Post lassen annehmen, dass kinderpornografisches Material in diesen Sphären stark zugenommen hat.
Da man bisher keine oder kaum Erfahrungen beim strafrechtlichen Verfolgen von KI-erstelltem Material hat, ist das Ausmaß der Fälle in Deutschland schwer abzuschätzen. Thomas-Gabriel Rüdiger, Leiter des Instituts für Cyberkriminologie an der Hochschule der Polizei des Landes Brandenburg, warnte im Gespräch mit dieser Redaktion, dass durch künstlich generiertes Material Täterinnen und Täter ihre "Hemmschwelle zu weiteren Delikten" abbauen können. Zugleich entstehe allein durch die Masse an produzierten Bildern eine "Art Normalität", die die Gewalt am Ende verharmlost.
Lesen Sie auch: Kinderpornographie – Warum Fachleute jetzt vor KI warnen