Berlin. Fotos, Videos, Text: Was bislang von Menschen kreiert wurde, kann nun auch ein Programm. Doch es gibt simple Tricks, um KI zu erkennen.

Der Videoanruf vom falschen Vitali Klitschko war zumindest für Berlins ehemalige Bürgermeisterin Franziska Giffey (SPD) schwer zu enttarnen, aber dass Papst Franziskus keine hippe, weiße Daunenjacke trägt, musste jedem klar sein, der dieses Bild Anfang 2023 zu sehen bekam. Beide, der falsche Klitschko und der flotte Franziskus, waren mit Hilfe künstlicher Intelligenz (KI) erstellt worden.

Die KI-generierten Produkte lassen sich manchmal selbst bei genauem Hinsehen oder Hören kaum von echten Videos oder Stimmaufnahmen unterscheiden, warnt unter anderem das Bundesamt für Sicherheit in der Informationstechnik (BSI). Wir haben mit Experten gesprochen, die erklären, worauf man bei Bildern, Videos, aber auch Texten achten sollte.

Künstliche Intelligenz: Worauf man bei Bildern achten muss

Experten wie Lukas Klingholz, Leiter des Bereichs Künstliche Intelligenz beim Digitalverband Bitkom, sind sich unsicher, ob Verbraucher Bilder, die von Programmen wie Dall-E oder Midjourney erstellt wurden, überhaupt noch als solche erkennen. „Angesichts der jüngsten technologischen Fortschritte fällt es zunehmend schwer, solche Werke von denen, die von Menschen erzeugt wurden, zu unterscheiden“, sagt Klingholz. Die künstlich generierten Inhalte hätten ein sehr hohes Niveau erreicht und verbesserten sich unglaublich schnell, stimmt Philipp Darius vom Zentrum für Digital Governance an der Hertie School zu.

Mittels des Computerprogramms Midjourney, eine Künstliche Intelligenz zur Bilderstellung, ist dieses Foto von König Charles III. auf der Tanzfläche der Party zur Krönungsfeier entstanden.
Mittels des Computerprogramms Midjourney, eine Künstliche Intelligenz zur Bilderstellung, ist dieses Foto von König Charles III. auf der Tanzfläche der Party zur Krönungsfeier entstanden. © Startdigital.com | Startdigital.com

Bilderzeugende KI und von Menschen programmierte Aufspürungssoftware liefern sich ein Wettrennen. Informatiker entwickeln immer ausgeklügeltere Tricks, um KI-Bilder zu entlarven. So untersuchen sie zum Beispiel den Verlauf der oberflächlichen Adern in der abgebildeten Gesichtshaut. Anhand solcher Informationen werden Fälschungen enttarnt. Hier liegt allerdings schon wieder ein Nachteil, denn jeder – menschengemachte – Algorithmus, der in der Lage ist, Fälschungen aufzuspüren, lässt sich gleichzeitig verwenden, die KI so zu verbessern, dass sie noch überzeugendere Ergebnisse liefert.

Es gibt aber ein paar Anhaltspunkte, die auf eine Fälschung hinweisen können. Gerade bei hastig erstellten Fälschungen sind beispielsweise seltsame Formen im Hintergrund zu sehen oder die Schatten fallen unpassend. Manchmal tauchen im Hintergrund Dinge auf, die in Kombination keinen Sinn ergeben wie „ein Wasserhahn, der sich über einem Schreibtisch befindet“, sagt Klingholz. Auch ein Wasserzeichen kann Hinweise geben, aufrichtige Unternehmen versehen damit inzwischen ihre KI-generierten Produkte.

Erst kritisch hinterfragen statt weiterleiten

Der Politik- und Datenwissenschaftler Darius hat einen Rat für den Umgang mit Bildern: „Man sollte, wenn zum Beispiel in der Whatsapp-Gruppe mit Familie oder Freunden etwas gepostet wird – ein Bild, das aufregt oder emotionalisiert – zunächst einen Schritt zurücktreten.“ Es sei wichtig, erst einzuordnen und nicht gleich weiterzuleiten.

In Teil eins der FUNKE-Serie über Künstliche Intelligenz geht es um die Frage, wie man KI erkennen kann.
In Teil eins der FUNKE-Serie über Künstliche Intelligenz geht es um die Frage, wie man KI erkennen kann. © iStock | iStock/FMG

Um diese Bilder zu überprüfen, könne man die Bilderrückwärtssuche nutzen, die von Google und anderen Anbietern kostenlos zur Nutzung bereitstehen: Man lädt das zweifelhafte Bild hoch und sieht, wo das Bild bereits früher verwendet wurde. „Man sollte dem emotionalen Impuls nicht nachgeben, sondern erst nach einer Quelle suchen“, sagt der Wissenschaftler. Es gebe aber auch Fälle, da mache es für Verbraucherinnen und Verbraucher keinen großen Unterschied, ob eine Illustration KI-generiert ist oder von einem Menschen erstellt wurde, sagt Lukas Klingholz – zum Beispiel in der Werbung.

Wie lassen sich Fake-Videos entlarven?

Genauer hinsehen sollte man bei Videos. Selbst hochwertige Deepfake-Videos, die oft Promis oder bekannte Menschen zeigen, lassen sich enttarnen. Das Massachusetts Institute of Technology (MIT) hat mehrere Tipps veröffentlicht, auf die Betrachter achten können. Wichtig ist zum einen das Gesicht: Sieht die Haut zu glatt oder zu runzelig aus? Passt das Alter des Gesichts zum Rest des Körpers? Sehen die Schattenwürfe rund um Augen und Augenbrauen echt aus? Sehen die Spiegelungen in Brillengläsern realistisch aus? Wie wirkt die Gesichtsbehaarung? Gibt es zu viel davon oder zu wenig? Wie sehen die Grübchen aus? Bei Videos kann man zudem auf das Zwinkern der Augen achten. Häufig zwinkern die Personen in diesen künstlich erstellten Videos zu viel oder zu wenig. Lippenbewegungen können Fälschungen ebenso entlarven.

Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake-Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins ehemaliger Regierender Bürgermeisterin Franziska Giffey (SPD).
Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake-Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins ehemaliger Regierender Bürgermeisterin Franziska Giffey (SPD). © dpa | Senatskanzlei

Das Team von Berlins Ex-Bürgermeisterin Giffey wurde im Ende Juni 2022 stutzig und hat das Videotelefonat mit dem falschen Klitschko abgebrochen. „Personen des öffentlichen Lebens, die Projektions- und Angriffsfläche sind, werden häufiger Opfer“, sagt Datenwissenschaftler Darius. Wer Englisch versteht und sich selbst testen möchte, der kann sich auf einer Internetseite des MIT testen, wie gut er KI-erstellte Videos erkennt.

So entlarve ich Texte, die von Chat GPT geschrieben wurden

Die gute Nachricht der KI-Experten: Maschinell erstellte Texte sind einfacher zu erkennen, als Fotos. Bei KI-generierten Texten ist teilweise am Stil erkennbar, dass der Inhalt „künstlich“ ist. „Bei ChatGPT etwa sind Sätze und Argumentationen oft in einem ähnlichen Muster aufgebaut“, sagt der Bitkom-Experte Klingholz. Der Ton der KI sei monotoner als bei menschlich geschriebenen Texten.

Spezielle Software kann Essays oder Abschlussarbeiten auf einen KI-Ursprung hin überprüfen. „Verändert der Autor oder die Autorin allerdings einige Worte, kann es sein, dass der Text durchgeht, ohne entdeckt zu werden“, warnt Philipp Darius. Bei Texten auf Flyern oder Broschüren und in Chatgruppen sollte man deshalb immer kritisch fragen, welches Interesse dahintersteckt.

Lesen Sie auch: ChatGpT – So hilt KI bei kryptischen Behördenbriefen

Viele Unternehmen nutzen diese Systeme in der Kundenbetreuung. „Hier hat man es inzwischen regelmäßig mit KI-basierten Anwendungen zu tun, die für die gängigsten Fragen schnell weiterhelfen und nur bei Bedarf an den menschlichen Support weitergeben“, sagt der KI-Experte vom Digitalverband Bitkom. Es könne hilfreich sein, wenn man auf diese Weise schnell und ohne Wartezeit eine Antwort bekommt oder bei einer KI einen Tisch im Restaurant reservieren kann, ist sich sich Klingholz sicher.

Unternehmen sollten transparent zeigen, wann KI im Einsatz war

Doch die von der Maschine erzeugten Texte bergen auch Risiken, warnen Darius und Klingholz. „Werden diese Texte im Bereich der politischen Öffentlichkeit und Gesellschaft verwendet, kann es die Vertrauensprobleme in Medien und politische Akteure verschärfen“, sagt der Politikwissenschaftler Darius. Mithilfe der KI lassen sich eben auch Falschnachrichten und politisch motivierte Desinformation schnell formulieren. „Vertrauen ist eine zentrale Währung im digitalen Zeitalter“, sagt Klingholz von Bitkom. Deshalb sollten sich „Unternehmen überlegen, ob sie freiwillig transparent machen, wenn sie KI verwenden“, schlägt er vor.

Die Experten teilen zugleich die Begeisterung für die KI: „Es gibt Programme, die komplett neue Bilder generieren oder per automatischer Füllfunktion beliebig erweitern. Das wird die Werbebranche verändern“, sagt Darius. Solange die KI-Programme kostenlos und einfach nutzbar sind, können sie „viele Prozesse vereinfachen, sei es die Steuererklärung, eine Geburtstagskarte zu schreiben oder einen Social-Media-Post zu entwerfen“. Die KI kann also Aufgaben abnehmen, aber kostet in anderen Fällen ein wenig mehr Hirnschmalz – und manchmal sind ihre Produkte einfach amüsant, so wie der Papst in der viel zu großen, glänzenden Daunenjacke.

Mehr zum Thema: Ethikrat alarmiert – „KI darf den Menschen nicht ersetzen“