Hamburg. Die Entwicklung der Software-Systeme geht viel zu schnell, sagt Judith Simon. Der Chatbot produziert Texte teils ohne Wahrheitsbezug.

Die Hamburger Professorin Judith Simon ist eine gefragte Expertin zum Thema künstliche Intelligenz und zur neuen Software ChatGPT. Am Mittwoch war sie zu einer Anhörung im Bundestag geladen, im Deutschen Ethikrat hat sie Ende vergangenen Jahres als Sprecherin der Arbeitsgruppe Mensch und Maschine eine Stellungnahme erarbeitet.

Gefragt ist sie wohl auch deshalb, weil sie einen ungewöhnlichen Werdegang hat: Simon, ursprünglich Diplom-Psychologin, wurde in Philosophie promoviert und befasst sich mit Technikphilosophie und Ethik in der Informationstechnologie. An der Universität Hamburg lehrt die Philosophiewissenschaftlerin im Fachbereich Informatik – eine ziemliche Besonderheit.

ChatGPT produziert in Sekundenschnelle Texte, Bilder und Videos von hoher Qualität

Und auch wenn die Hamburgerin sich seit Langem mit künstlicher Intelligenz und auch computergenerierten Sprachmodellen, war sie von der rasanten Entwicklung von ChatGPT überrascht. Das Tempo, mit dem diese neuen Systeme derzeit auf den Markt geworfen würden, sei viel zu hoch, sagt sie. „Das macht mir Sorgen.“

Angesichts der Schnelligkeit, mit der die neue Technik „in alle möglichen Gesellschaftsbereiche eindringt und diese verändert, sind wir als Gesellschaft überfordert, angemessen zu reagieren. Und auch die Regulierung kann hier nicht Schritt halten.“

Hamburger Abendblatt: Die künstliche Intelligenz entwickelt sich rasend schnell, auch für Laien sichtbar ist die schnelle Folge der Updates von ChatGPT, die diese sprachbasierte Form der künstlichen Intelligenz (KI) einer breiten Masse zugänglich macht. Was wird KI in zehn Jahren nach Ihrer Einschätzung alles können?

Prof. Judith Simon: Das Tempo der Entwicklung ist derzeit so hoch, dass das kaum absehbar ist. Entscheidend in Bezug auf aktuelle Entwicklungen ist, dass sich nicht nur die Technologie schnell entwickelt hat. Wovon wir derzeit so überrollt werden, ist, dass Systeme auf den Markt geworfen werden, die einerseits ein so breites Anwendungsfeld haben und zum anderen so schnell und einfach zu benutzen sind. Jeder kann auf einmal mit minimalen technischen Voraussetzungen und Kompetenzen in Sekundenschnelle Texte, Bilder und Videos von hoher Qualität produzieren. Was derzeit die großen Disruptionen hervorruft, ist also nicht nur die schnell voranschreitende Technologie, sondern dass sie frei verfügbar, einfach und unmittelbar nutzbar und breit anwendbar ist.

Geht die Entwicklung zu schnell?

Ja, mir geht die Entwicklung derzeit zu schnell – vor allem das Tempo, mit dem neue Produkte auf den Markt geworfen werden. Im November kam ChatGPT, bald darauf ChatGPT4 mit der Kombination von Sprache und Bild, und der nächste Schritt war die Anbindung von ChatGPT ans Internet, sodass das System nicht auf Daten bis zum Jahr 2021 beschränkt war, sondern auch Aktuelles abfragbar ist. Das Tempo, mit dem Entscheidungen getroffen werden, weil man der Erste auf dem Markt sein will, macht mir Sorgen – wie auch vielen Informatikern und Informatikerinnen.

Die Hamburger Expertin Judith Simon bei der Präsentation der Stellungnahme des Deutschen Ethikrates zum Thema „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ Ende vergangenen Jahres.
Die Hamburger Expertin Judith Simon bei der Präsentation der Stellungnahme des Deutschen Ethikrates zum Thema „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ Ende vergangenen Jahres. © dpa | Wolfgang Kumm

Was befürchten Sie?

Aufgrund des hohen Tempos, mit dem ChatGPT und ähnliche Tools derzeit in alle möglichen Gesellschaftsbereiche eindringen und diese verändern, sind wir als Gesellschaft überfordert, angemessen zu reagieren. Und auch die Regulierung kann hier nicht Schritt halten. Der KI-Act der EU liegt als Vorschlag vor, muss aber noch vom Europarat und EU-Parlament verabschiedet werden – das dauert. Und wenn er dann kommt, dürfte er teilweise schon wieder veraltet sein. Als ChatGPT im November freigeschaltet wurde, schossen die Nutzerzahlen in kürzester Zeit in die Höhe, eben weil es so einfach nutzbar, frei zugänglich ist und sprachliche oder visuelle Ausgaben von hoher Qualität in Sekundenschnelle produziert werden – aber eben ohne jedweden Bezug zu Wahrheit. Sprache ist unser wichtigstes Kommunikationsmittel, Bilder von entscheidender Bedeutung für Evidenz. Darauf muss die Gesellschaft erst mal reagieren.

Schnell wurde die Anwendung in Schule und Universität diskutiert. Aufsätze, Referate und Hausarbeiten scheinen auch blitzschnell durch ChatGPT erstellbar, wenn man dem System die richtigen Aufgaben stellt.

ChatGPT stellt uns in der Tat vor die Herausforderung, wie wir künftig noch faire Prüfungen organisieren können, wenn wir nicht wissen, wer etwas selbst geschrieben oder teilweise oder vollständig hat von der KI schreiben lassen. Unter anderem wird man wohl Prüfungsformate ändern müssen.

Wie denn?

Es dürfte mehr mündliche Prüfungen geben, diese Form ist betrugsresistenter. ChatGPT fordert uns aber auch heraus, über Ziele, den Wert und das Wesen von Bildung nachzudenken. Was müssen künftig Bildungsinhalte sein? Welche Kompetenzen brauchen wir noch – und welche vielleicht nicht mehr? Welches Wissen ist relevant? Dieser Frage müssen sich auch die Universitäten stellen. Wenn Studierendengruppen so groß sind, dass man nur stupide Wissen abprüfen kann, ist das ohnehin nicht ideal, und man muss sich nicht wundern, wenn Aufgaben an die KI delegiert werden. Kleine Seminare mit einer überschaubaren Zahl von Studierenden wären schön – sind aber oftmals nicht möglich.

ChatGPT: Fehler sind nicht immer leicht zu erkennen

ChatGPT macht aber auch Fehler. Selbst seine Entwickler geben zu, dass die ausgegebenen Informationen nicht immer der Wahrheit entsprechen und somit Falschinformationen verbreitet werden können.

Natürlich macht das System Fehler, man muss sich ja klarmachen, wie es funktioniert. Es hat viele Texte analysiert, Muster erkannt und „weiß“, wie Texte strukturiert sind und Worte zusammenhängen – das ist eine rein statistische Weise, Texte zu erstellen. Je standardisierter die Texte sind, desto einfacher ist es für die KI, sie zu produzieren. Texte und Aussagen klingen eloquent und plausibel, aber sie basieren lediglich auf Wortkombinationen und Sprachmustern. Dadurch können sie falsch und unsinnig sein, die Quellen frei erfunden – aber dies ist nicht immer leicht zu erkennen.

Ein gravierender Nachteil …

Täuschung scheint eines der Grundprobleme zu sein. Manipulation durch Texte und Bilder gab es schon vorher. Aber die Einfachheit, mit der das jetzt möglich ist, die Breite der Verfügbarkeit und die Qualität der Produkte sind jetzt eine ganz andere. Das wird nicht alles über Regulierung zu kanalisieren sein, sondern auch durch neue Normen und Praktiken. Aber auch dafür ist kaum Zeit, wenn im Wochenrhythmus neue Updates kommen.

Geht die Entwicklung so schnell und schafft Fakten, sodass die Regulierung gar nicht hinterherkommt?

Das ist mit Sicherheit so. Die rasante Entwicklung von generativer KI hat viele überrascht, mich auch. Die Ursache für diese große Veränderung ist, dass die Systeme nun so einfach von jedermann nutzbar sind, die Anwendungskontexte aufgrund der Produktion von Text, Bild und Video so breit und die Nutzerzahlen entsprechend so groß sind. Schon gibt es die ersten ökonomischen Verwertungsmodelle, keiner will hintendran hängen. Diese Dynamik hat man völlig unterschätzt.

KI-Expertin: Regulierung darf nicht sofort von technischer Entwicklung überholt werden

Welche Regulierung müsste es geben?

Ich bin keine Juristin. Der Entwurf des KI-Acts der EU fokussiert auf Hochrisikosysteme, darunter fällt ChatGPT derzeit nicht. Wenn man lediglich bestimmte Anwendungskontexte reguliert, ist die Frage, ob das einer All-Purpose-Software wie ChatGPT, die unendliche viele Anwendungsmöglichkeiten bietet, gerecht wird oder ob man das nicht doch auf der Ebene der Grundlagen dieser Technologie regulieren muss und wie das geschehen kann. Ein Rechtsrahmen muss so gestaltet werden, dass er nicht von der nächsten technischen Entwicklung sofort wieder überrollt wird.

Italien hat die Nutzung von ChatGPT vorübergehend gestoppt, mit dem Argument des Datenschutzes. Der richtige Weg?

Einerseits gibt es tatsächlich massive Datenschutzprobleme mit ChatGPT. Andererseits wurde vermutlich einfach geschaut, welche rechtlichen Hebel es überhaupt gibt, um zu reagieren, und da die Datenschutzgrundverordnung bereits in Kraft ist, war sie eine Möglichkeit, Ähnliches gilt für das Urheberrecht. Datenschutz und Urheberrecht – das sind nicht unbedingt die Hauptprobleme bei ChatGPT, aber hier gibt es bereits existierende rechtliche Rahmen, um einzugreifen. Damit hat man zumindest einmal auf die Bremse gehauen. Auch sendet das die Botschaft: Ihr könnt nicht einfach Systeme auf den Markt bringen, ohne die grundlegenden Regeln zu beachten. Die Instrumente, die wir haben, sollten wir auch nutzen, um das Signal an die Unternehmen zu senden: Bestimmte Standards müsst ihr einhalten.

Was die Hamburger Expertin vom offenen Brief von Elon Musk & Co hält

In einem offenen Brief, unterzeichnet von mehr als 1000 Tech-Experten, darunter Unternehmer wie Elon Musk und Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann.“ Musk gehörte selbst mit zu den Gründern von OpenAI. Kurz nach Veröffentlichung des Briefes wurde bekannt, dass er selbst einen neuen ChatGPT-Konkurrenten namens TruthGPT plant.

Meine Haltung zu diesem Brief ist ambivalent. Auf der einen Seite hatte ich auch den Eindruck, dass eine Pause gut wäre. Auch einige Aspekte des Briefs, wie der Ruf nach stärkerer Kontrolle, sind sinnvoll und wurden auch schon vorher von vielen anderen geäußert. Andererseits sind einige der Akteure hinter dem Brief, wie Elon Musk, mehr als fragwürdig, und auch der Fokus auf existenzielle Risiken und die Gefahr der Auslöschung der Menschheit ist problematisch und lenkt von drängenderen aktuellen Problemen ab.

Sie meinen die Sorge, dass sich KI in gewisser Weise verselbstständigt und Macht bekommt, unabhängig von ihren Schöpfern, und Kontrolle über menschliches Verhalten, Ressourcen und Institutionen gewinnt.

Das ist genau einer der problematischen Aspekte des Briefes: dieser Fokus auf fiktive zukünftige Systeme und das Abgeben der Verantwortung an scheinbar autonome Maschinen. Man muss ganz klar sagen: Die jetzigen Systeme haben kein Bewusstsein. Das sind rein statistisch operierende Maschinen, sie verstehen Sprache nicht, sondern berechnen die Wahrscheinlichkeit von Wortkombinationen. Es erscheint dem Menschen im Austausch nur manchmal so, als würden sie Sprache verstehen oder hätten gar Bewusstsein. Ob sie in Zukunft irgendwann einmal so etwas Ähnliches entwickeln wie das, was wir Verständnis oder gar Bewusstsein nennen, weiß man nicht.

Wird künstliche Intelligenz immer von Menschen kontrollierbar sein?

Wichtig ist mir: Es sind immer Menschen, die die Entscheidung treffen, Systeme zu entwickeln. Die Entscheidungen von Open AI, ChatGPT so früh und mit so vielen Schwachstellen auf den Markt zu werfen und sie später sogar mit einer Liveschnittstelle zum Internet zu versehen, fand ich problematisch. Meine Sorge ist nicht, dass diese Systeme die Weltherrschaft übernehmen, sondern eher, dass Menschen mit sehr viel Macht diese missbrauchen, um ihre Zwecke zu erreichen.

Sorge: ChatGPT könnte zu manipulativen Zwecken eingesetzt werden

Inwiefern?

Systeme wie ChatGPT können zu manipulativen Zwecken eingesetzt werden und sind sehr mächtige Werkzeuge für Propaganda und Destabilisierung, auch durch politische Akteure, die daran ein Interesse haben. Beunruhigend finde ich weniger, was die Technik macht – die macht nämlich derzeit von selbst nichts – , sondern die Entscheidungen, die einige wenige Menschen treffen, die dann massive Folgen weltweit haben, sowie die Möglichkeiten, grundlegende Prozesse der Information und Kommunikation auf extrem einfache und schnelle, aber nachhaltige Weise zu stören – mit den daraus resultierenden Gefahren für unsere Demokratie.

Könnte man diesen Programmen beibringen, wo etwa moralische oder politische Grenzen liegen?

Eine Möglichkeit, die hier genutzt wird, ist, dass man die Antwort auf bestimmte Anfragen (Prompts) verweigert, etwa mit dem Hinweis, dass der Prompt problematisch ist oder das System ein Chatbot, der zu bestimmten Dingen nichts sagen kann. Andererseits geht es auch darum, problematische Aspekte – wie beispielsweise diskriminierende Tendenzen in den Systemen – zu reduzieren, die durch die Trainingsdaten importiert wurden.

Was künstliche Intelligenz in der Medizin leisten kann

Wir haben viel über Gefahren gesprochen, gibt es auch Vorteile?

Ein Roboter in der Pose der berühmten Skulptur „Der Denker“ von Auguste Rodin.
Ein Roboter in der Pose der berühmten Skulptur „Der Denker“ von Auguste Rodin. © shutterstock, Phonlamai Photo

Software wie ChatGPT kann Arbeit erleichtern, indem die Alltagsproduktion von Texten an die Systeme delegiert werden. KI im Allgemeinen hat sehr viele Anwendungsgebiete, weil es im Grunde auf der Erkennung von Mustern beruht und zur Klassifikation und Prognose verwendet werden kann. So lässt sich in der Medizin beispielsweise Krebsgewebe besser aufspüren und von gesundem Gewebe unterscheiden. KI-Systeme könnten auch zur Unterstützung von Entscheidungen eingesetzt werden, beispielsweise in der öffentlichen Verwaltung. Das kann extrem hilfreich und unproblematisch sein, etwa wenn ich effizientere Routen für die Müllabfuhr berechne. Aber in dem Moment, wo ich Prognosen über Menschen anstelle, wird es schon wieder sehr viel schwieriger zu bewerten. So werden datenbasierte KI-Systeme verwendet, um vorherzusagen, wo die nächsten Verbrechen stattfinden könnten oder ob von einer Person, die in der Vergangenheit straffällig geworden ist, auch zukünftig Straftaten zu erwarten sind. Ist jemand kreditwürdig? Ist jemand zukünftig ein guter Mitarbeiter oder Mitarbeiterin? Was kann ich aus den Bewerbungsunterlagen an Mustern erkennen, die vorhersagen, dass jemand in zehn Jahren als Abteilungsleiter geeignet ist?

Die Frage scheint, ob diese Systeme die Handlungsmöglichkeiten von Menschen erweitern oder verringern.

Das war die Leitfrage, mit der wir uns im Ethikrat beschäftigt haben. Bleiben wir bei dem Beispiel aus der Medizin: Das erweitert die Möglichkeiten des Diagnostikers und kommt den Patienten zugute, weil vielleicht Krebs früher erkannt wird. Aber was bedeutet es, wenn in der Folge Kompetenzen verloren gehen, weil sie an die Maschine delegiert werden, und dann die Technik ausfällt? Auch funktionieren die KI-Systeme oftmals nicht für alle Nutzergruppen gleich gut. Wenn das System zur Erkennung von Hautkrebs etwa auf helle Haut trainiert ist, ist die Unterscheidungsfähigkeit zwischen gesundem und krankhaftem Gewebe auf dunkler Haut vielleicht schlechter und die Fehlerquote höher.

ChatGPT: Übernimmt Software teilweise die Arbeit von Journalisten?

Und im Journalismus? Wird dieses Interview in zehn Jahren von ChatGPT geführt?

Möglich. Die Software und ihre künftige Weiterentwicklung werden auf jeden Fall das Berufsfeld von Journalisten sehr verändern. Wahrscheinlich wird es viel stärker zu ihrer Aufgabe gehören, Fakten zu checken und KI-generierte Texte zu redigieren. Das muss man nicht gut finden und ist auch keine Folge der Technologien allein, sondern der ökonomischen Rahmenbedingungen. Man muss sich generell von der Vorstellung verabschieden, dass Arbeitnehmer durch den vermehrten Einsatz von KI mehr Freizeit haben werden. Das wäre nur möglich, wenn die politischen und ökonomischen Grundlagen verändert werden.

Stehen wir nach der industriellen und der digitalen Revolution jetzt vor einer KI-Revolution, die unsere Gesellschaft und die Wirtschaftsprozesse von Grund auf verändern wird?

Vielleicht. Das ist schwer vorherzusehen. Ich möchte einerseits nicht einen Hype befördern. Andererseits hat mich die Entwicklung von ChatGPT selbst ziemlich überrollt. Das macht mich nachdenklich, schließlich arbeite ich seit Langem zu dem Thema. Die KI wird einiges verändern.