Essen. Texte schreiben, Bilder erzeugen – Künstliche Intelligenz kann so einiges. Experten fordern klare Regeln. Über die Chancen und Risiken von KI.
Es ist ein ergreifendes Bild: Eine ältere Frau steht dicht hinter einer jüngeren, hält sie an den Schultern. Beide blicken an der Kamera vorbei ins Leere. Sind es Mutter und Tochter? Ist es Liebe oder Trauer? Es wirkt, als schauten sie ihren verlorenen Träumen nach, als wollten sie sich halten, weil sie einander verloren haben. Der Berliner Fotograf Boris Eldagsen hat für das Kunstwerk einen Preis erhalten. Doch er will ihn nicht annehmen. Künstliche Intelligenz (KI) habe ihm geholfen, die Fotografie zu schaffen, gab Eldagsen anschließend zu. Er habe das KI-Bild absichtlich für den Wettbewerb eingereicht, um zu sehen, ob es der Prüfung einer Fachjury standhalten würde. Die Debatte, die er damit anstoßen wollte, hat indes längst begonnen.
Was ist echt, was ist Fake? Was können die Betrachter glauben, was müssen sie hinterfragen? Seit KI-Systeme wie ChatGPT oder Midjourney Texte und Bilder im Handumdrehen in hoher Qualität erzeugen, verschwimmen Fakten und Fiktionen in einem undurchsichtigen Realitätsnebel. Bewegte sich die Debatte um Künstliche Intelligenz in den vergangenen Jahren eher in Zirkeln von Experten, Nerds und Kulturpessimisten, hat zuletzt ausgerechnet Papst Franziskus dafür gesorgt, dass einer breiten Öffentlichkeit schlagartig die Möglichkeiten und Risiken von KI bewusst wurde: Das Bild des Papstes in einer weißen, dick aufgeplusterten Daunenjacke machte in den Sozialen Medien rasant die Runde. Fast jeder fiel beim ersten Blick darauf herein, denn es sah täuschend echt aus. Der coole Mantel wirkt an ihm zwar ungewöhnlich und schräg, doch auch nicht komplett übertrieben oder unwahrscheinlich.
Künstliche Intelligenz: Auf Fake-News folgen Fake-Bilder
Seit Wochen kursieren viele, nur beinahe unglaubliche Fotos im Internet: Wladimir Putin, wie er unterwürfig vor Chinas Präsident Xi Jinping kniet. Donald Trump, der von Polizisten weggezerrt wird. Man erkennt zwar, dass es sich um Fälschungen handelt, doch dank immer ausgefeilteren Algorithmen dürfte sich das bald ändern. Wie verändert das unsere Sicht auf die Welt, auf die Wahrheit? Wir haben gelernt, Fotos für bare Münze zu nehmen, als ein Abbild der realen Welt: Fotos von der Mondlandung, vom Tanz auf der Berliner Mauer, von Kohl und Mitterrand Hand in Hand. Sogar die schier unfassbaren Bilder vom Einschlag der Flugzeuge in das World Trade Center stehen für Tatsachen. Was wir gesehen haben, ist geschehen.
Das ist vorbei. Wer einmal in die Irre geführt wurde, wie etwa mit dem gepufferten Papst, der betrachtet Fotos künftig anders, wird skeptisch und zweifelt. Alles, was uns unglaublich oder fast zu schön erscheint, um wahr zu sein, wird verdächtig. Wenn ab sofort jeder mit geringer Mühe Fotos auf dem Rechner komponieren kann und die Welt neu zusammensetzt, verlieren die Bilder ihre unmittelbare Macht. Das gilt nicht nur für Fotografien, sondern ebenso für Texte, Gedichte, Briefe, Nachrichten, Filme, Kunstwerke. Zu den erfundenen Fakten, die als Fake News in Mode kamen und Querdenkern, Corona-Leugnern oder Trump-Anhängern endlos Munition lieferten, gesellen sich nun auch die passenden Bilder. Nichts ist mehr, was es vorgibt zu sein. Ist alles nur noch Schein?
Politik und Wissenschaft fordern Regulierung von KI
Kein Wunder, dass jetzt Regeln und Gesetze gefordert werden, Wissenschaftler schlagen ein Forschungsmoratorium vor, Italien geht sogar einen Schritt weiter und hat die Nutzung von ChatGPT aus Gründen des Jugend- und Datenschutzes verboten. Ethikräte mahnen, Künstliche Intelligenz dürfe den Menschen nicht ersetzen und fordern eine vertrauenswürdige KI, die Menschenrechte achte und Diskriminierung vermeide.
Die Europäische Union bereitet eine KI-Verordnung vor, die sicherstellen soll, dass KI-basierte Systeme keine negativen Folgen für die Sicherheit und Grundrechte der Menschen haben. Die Politik drückt bei der Regulierung aufs Tempo. Bereits in zwei Jahren könne der vorbereitete „KI-Act“ in den Staaten der EU gelten. Vieles aber spricht dafür, dass die KI schneller sein wird als die Politik. Denn die Veränderungen, die KI-Systeme in allen Bereichen der Gesellschaft, in Schulen, Hochschulen, Wirtschaft, Kunst und Wissenschaft bewirken werden, sind noch überhaupt nicht absehbar. Fest steht nur: Sie werden enorm sein.
Experte: KI-Systeme bedeuten Technik-Revolution
„Wir beobachten gerade in der KI eine technologische Revolution, die mit dem Internet oder dem Smartphone vergleichbar ist“, sagt Hinrich Schütze, Professor für Computerlinguistik an der LMU München. KI wird einen gewaltigen ökonomischen und technologischen Schub auslösen, sie wird verändern, wie wir schreiben, lernen, reden und programmieren. Zugleich wird die Versuchung groß sein, wichtige Entscheidungen der Maschine zu überlassen, etwa bei der Strafverfolgung, in der Medizin, in Finanzfragen. Das Problem dabei: Das System suggeriert nur Sicherheit, kann aber auch völlig falsch liegen. Das zu erkennen, wird für die Gesellschaft ein Lernprozess sein – was uns anhand der Papst-Fotos ja bereits plastisch vor Augen geführt wurde.
„Was mir persönlich am meisten Angst macht, ist der Werkzeuggebrauch“, sagt Schütze. In der Entwicklung der Menschheit waren die Erfindung und Verwendung von Werkzeugen Schritte auf dem Weg zu einer komplexen Zivilisation. Dass KI-Systeme künftig selbst Werkzeuge benutzen werden, „könnte leicht zu einer Katastrophe führen, zum Beispiel wenn das Kommando über ein tödliches Waffenarsenal an die KI übertragen wird“, mahnt Schütze. Etwa wenn das System mögliche Ziele selbsttätig analysiert und seine Schlüsse daraus zieht. KI müsse daher reguliert werden wie Waffen und Gentechnik. „Wie in der Genetik das Klonen von Menschen gesetzlich verboten ist, so muss es ein Regelwerk geben, das Sprachmodellen Grenzen setzt.“
Ethikrat erwartet schwere Krisen für Wissenschaft und Demokratie
Der Theologe Peter Dabrock, bis 2020 Vorsitzender des Deutschen Ethikrats, sieht in den neuen Sprachmodellen nicht weniger als einen „Epochenbruch“. Die aktuelle Herausforderung bestehe darin, dass „wir umgehend lernen, diese große Zeitenwende kritisch und konstruktiv zu gestalten“. Denn fundamentale Kulturtechniken wie Lesen und Schreiben sowie die Informationsverarbeitung werden sich in Kürze radikal verändern. „Eine Flut von schwer überprüfbaren Fake-Informationen via Schrift, Videos und Bildern werden Konzepte von Wahrheit und Wirklichkeit noch mehr unter Druck setzen“, sagte der Ethik-Experte der Wissenschaftsredaktion Science Media Center (SMC). Für Wissenschaft und Demokratie befürchtet er schwere Krisen, wenn kein Weg gefunden werde, die Entwicklung der Systeme zu regulieren.
An wirksame Regelungen glauben andere indes nicht. „Richtlinien zur KI-Ethik sehen gut aus, haben aber keine oder kaum nachweisbare Effekte“, meint IT-Forscher Thilo Hagendorff. Sie ließen sich schlicht nicht durchsetzen. Die ethischen Risiken von Sprachmodellen wie ChatGPT seien indes klar sichtbar. Hagendorff macht eine Liste auf mit sieben Punkten.
Erstens: Das Risiko von Diskriminierungen, etwa von Minderheiten, sexuellen Orientierungen und Geschlechtern. Zweitens: Die Gefahr, dass eine KI private Informationen aus den Eingaben herausfiltern könnte. Drittens: Die automatische Produktion von Desinformationen und Fake-News. Viertens: Das Risiko bösartiger Nutzungsabsichten, etwa wenn KI-Modelle zur Herstellung von Programmen und Codes für Hacker-Angriffe missbraucht werden. Fünftens: Das Risiko, dass Nutzer ihren Chatroboter vermenschlichen oder übermäßig vertrauen und dadurch intime Informationen preisgeben. Sechstens: Der Verlust von unzähligen Arbeitsplätzen. Und siebtens: Das Risiko ökologischer Folgen, denn das Training und die Anwendung von Sprachmodellen verursache einen immensen Stromverbrauch.
In der möglichen Vermenschlichung des Chatroboters sieht auch die Essener Sozialpsychologin Nicole Krämer eine Gefahr. „Man kann den Eindruck bekommen, dass man mit einem Menschen spricht, etwa wenn man mit Alexa oder Siri kommuniziert.“ ChatGPT sei in diesem Punkt besonders perfide. Wenn man dem Sprachroboter eine Frage stellt, gleitet in der Antwort der Cursor über den Bildschirm, als würde jemand „am anderen Ende“ gerade live eine Antwort eintippen. Dies erwecke den Anschein, man habe es mit einem echten Gesprächspartner zu tun, dem man vertrauen könne. „Wir sollten uns fragen, wie menschenähnlich die Systeme gestaltet sein sollten“, sagt Krämer. Je besser die KI-Sprachmodelle werden, desto schwieriger lässt sich menschliche von maschineller Kommunikation unterscheiden. Blindes Vertrauen in die KI aber führt geradewegs in die Irre – was wiederum das falsche Papstbild gut illustriert.
Herausforderung Fake-News: Medien haben große Verantwortung
Die wachsende Furcht vor Desinformation, vor KI-erzeugten Bildern oder Nachrichten im Netz könnte aber auf Dauer auch dazu führen, dass sich die Manipulatoren irgendwann selbst das Wasser abgraben. Voraussetzungen dafür sind allerdings eine kritische und informierte Öffentlichkeit sowie professionelle Informationsvermittler und Medien. Die Menschen dürften misstrauischer werden und in der Folge nach Informationsquellen suchen, die seriös und verlässlich sind, meint der Bamberger Politikwissenschaftler Andreas Jungherr.
„Das reine Volumen von Falschinformationen muss nicht entscheidend sein, solange etablierte Informationsmarken weiterhin in der Lage sind, durch redaktionelle Prozesse Informationsqualität zu garantieren.“ Auf den klassischen Journalismus komme daher eine besondere Herausforderung zu. „Alternativ kann dies aber auch zu einer stärkeren Unterstützung von Informationsregulierung durch den Staat und entsprechender Kontrolle durch Behörden führen.“ Eine womöglich als allgegenwärtig wahrgenommene KI-Desinformation könnte somit etablierte Informationsvermittler stärken, so die Hoffnung.
KI bietet Chancen und Risiken für verschiedene Branchen
ChatGPT und andere KI-Modelle werden in Kürze erhebliche Bereich der Arbeit in vielen Berufsfeldern drastisch verändern oder automatisieren. Selbst bei anspruchsvollen und bislang gut bezahlten Tätigkeiten wie Software-Entwicklung wird die KI zahlreiche Arbeitskräfte ersetzen und die Produktivität erheblich steigern. Auf Anwälte, Marketingabteilungen, Berater, Redaktionen und Lehrer dürften gravierende Veränderungen zukommen. Aber Fachleute sehen auch große Chancen: Wenn eine Anfrage an ChatGPT bessere Antworten liefern kann als menschliche Experten, macht dies Recherche und Forschung effektiver. „Im Extremfall kann KI auch Leben retten, Sprachmodelle in der Medizin sind eine große Chance“, meint Hagendorff. Sie könne zum Beispiel krankhafte Veränderungen im Lungengewebe oftmals zuverlässiger erkennen als mancher Spezialist.
Das Potenzial von generativen Systemen für Wirtschaft und Gesellschaft ist immens, meint auch die Dortmunder Informatik-Professorin Katharina Morik. „Mit ChatGPT ist ein Meilenstein der KI erreicht worden“, ist sie überzeugt. Mit ihrer Hilfe könnten automatisierte Dienste entwickelt werden für Berichte, Texte, Angebotserstellung und Kundenberatung. Durch einfachere und schnellere Programmierung werde die Produktivität vieler Branchen enorm gesteigert.
Risiko: Missbrauch von KI für wirtschaftliche Interessen
Doch es geht nicht nur um ethische Risiken und gesellschaftliche Veränderungen bei der Anwendung der machtvollen Technologie. Es geht auch um handfeste wirtschaftliche Interessen. Ein großer Teil der Forschung und des Wissens liegt in der Hand von wenigen privat geführten Datenkonzernen vor allem in China und in den USA. Armin Grunwald, Professor für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT), findet das „hoch problematisch“ in einem Feld, das nicht nur neue Produkte erzeugt, sondern eine die Gesellschaft stark beeinflussende Entwicklungen in Gang setzt.
„Jede technische Entwicklung basiert auf menschlichen Entscheidungen, hier also den Interessen, Werten, Geschäftsmodellen und vielleicht sogar Gesellschafts- und Zukunftsvorstellungen weniger Manager und Multimilliardäre in den Monopolkonzernen“, schreibt Grunwald. Es mag einen gruseln bei der Vorstellung, dass Manager vom Schlage eines Elon Musk, der jüngst die Firma „X.AI“ für Künstliche Intelligenz gründete, an der Gestaltung der zukünftigen Gesellschaft maßgeblich mitwirkt.
Schon jetzt prägen wenige Konzerne wie Google, Microsoft oder OpenAI durch rasche Fortschritte in der KI „unsere Zukunft in einem hohen Maße ohne jede öffentliche Debatte und ohne demokratische Legitimierung“, sagt Grunwald. Das Problem der aktuellen KI-Entwicklung sei daher nicht der drohende Machtverlust an die Algorithmen, „sondern die Machtkonzentration über die zukünftige Gesellschaft in den intransparenten Händen weniger“.
KI – Freund oder Feind? Das Bewusstsein für die Gefahren Künstlicher Intelligenz wächst. Zugleich werden auch immer mehr Chancen und Anwendungen sichtbar. Letztlich geht es aber weniger um die Maschine, sondern um den Umgang mit ihr. Nicht die KI steht also auf dem Prüfstand, sondern der Mensch. Die KI wird schon bald zum Standard unzähliger Anwendungen gehören. Es kommt darauf an, eine Technologie, der eine weltverändernde Wirkungsmacht „irgendwo zwischen Buchdruck und Atombombe“ (Süddeutsche Zeitung) prophezeit wird, zu regulieren und zu einem Instrument des Fortschritts zu machen. Ob es gelingt, die Balance der Interessen zu wahren, ohne dass sie von den Geschäftsinteressen beim Rennen um die globale Marktführerschaft zerstört wird, ist nicht ausgemacht.
Die Digitale Sonntagszeitung ist für alle Zeitungsabonnenten kostenfrei. Hier können Sie sich freischalten lassen. Sie sind noch kein Abonnent? Hier geht es zu unseren Angeboten.