Hamburg. Immer zum Wochenende: Die 100 Fragen des Lebens. Diesmal geht es um künstliche Intelligenz und wie sie die Welt verändern wird.

Kaum eine Veränderung stellt uns vor so große Herausforderungen wie die digitale Revolution. Die Verunsicherung ist groß: Wie viele Jobs fallen weg? Werden Maschinen irgendwann eigenständig medizinische Operationen durchführen oder juristische Urteile fällen­? Können Roboter auch Gefühle erlernen­ – und eines Tages sogar den Menschen ersetzen? Antworten geben die Philosophiewissenschaftlerin Prof. Judith­ Simon und der Informatikprofessor Frank Steinicke.

Forscher haben schon 1995 „Das Ende der Arbeit“ vorhergesagt, also die Übernahme der meisten Industriejobs durch Roboter innerhalb von zwei Jahrzehnten. Das ist nicht eingetroffen. Doch viele von uns hätten sich damals fahrerlose Autos kaum vorstellen können, wie sie heute erprobt werden. Tritt die Prognose nun mit etwas Verzögerung ein?

Prof. Dr. Frank Steinicke: Es heißt, dass in den kommenden 20 Jahren nicht nur durch Roboter, sondern insgesamt durch Digitalisierung und künstliche Intelligenz bis zu 50 Prozent aller derzeit existierenden Jobs wegfallen werden. Wir werden zumindest erleben, dass sich diese Jobs massiv ändern.

Prof. Dr. Judith Simon: Mittlerweile haben die Veränderungen Arbeitsfelder erfasst, die man zunächst kaum im Blick hatte – nämlich klassische White-Collar-Berufe wie Steuerberater, Juristen oder Mediziner.

Ein Arzt, der durch künstliche Intelligenz ersetzt wird?

Simon: In der Chirurgie operieren Mensch und Roboter jetzt schon gemeinsam. Genauso wird die Diagnostik im Wege der Mustererkennung digital unterstützt. Natürlich wird der Arzt nicht vollständig ersetzt. Bei Juristen ist beispielsweise die Vertragsprüfung gut an Maschinen delegierbar. Auch in diesem Berufsspektrum werden sich die Aufgaben verschieben.

Steinicke: In der Medizin ist Digitalisierung durchaus sinnvoll. Wenn wir sehen, wie viele medizinische Erkenntnisse pro Tag generiert werden – die kann kein Arzt mehr alle lesen. In der Diagnostik wird man in vielen Fällen schon anhand der Symptome, des Allgemeinzustands und grassierender Krankheiten mithilfe von Algorithmen eingrenzen können, welche Krankheit ein Patient hat. Dann kann der Arzt seine Zeit für wirklich schwierige Fälle einsetzen.

In welchen Berufen werden Maschinen Menschen in Zukunft noch ersetzen?

Steinicke: Insbesondere da, wo wir es mit vielen Daten zu tun haben. Algorithmen und künstliche Intelligenz sind gut darin, Muster zu erkennen – eben im Steuerbereich, im juristischen Bereich, in der Medizin. Google hat kürzlich Google Duplex vorgestellt, eine Entwicklung, die eigenständig auf Befehl Restaurants oder Friseurgeschäfte anrufen kann, um einen Tisch zu reservieren oder einen Termin zu vereinbaren. Vielleicht wird man virtuelle Nachrichtensprecher entwickeln, bei denen nicht mehr unterscheidbar ist, ob es sich um echte Personen handelt oder nicht.

Lange gingen vor allem in der Industrie Jobs verloren, als Roboter mechanische Tätigkeiten etwa in der Autofertigung oder beim Flugzeugbau ersetzten. Jetzt übernehmen Computer auch das, was wir geistige Arbeit nennen?

Simon: Ja. Zunächst ging es um den Ersatz von Kraft durch Roboter – klassischerweise charakterisiert durch die drei „d“: „dull, dirty, dangerous“ – also langweilige, schmutzige und gefährliche Tätigkeiten. Zunehmend wird dies ergänzt durch „delicate and difficult“ – also präzise Aufgaben wie die des Chirurgen und eben schwierige Arbeit. Das berührt dann schon eher ein Feld, in dem Mensch und Maschine eng zusammenarbeiten müssen. Bei der künstlichen Intelligenz geht es nicht um das Handeln im physischen Raum, sondern den Ersatz bestimmter kognitiver Teilaspekte menschlicher Leistung – wie Mustererkennung, Übersetzung oder logische Prüfung. Im nächsten Schritt wird es zu einer Verschmelzung kommen von Robotern, die auch mit künstlicher Intelligenz ausgestattet sind. Die selbstfahrenden Autos sind dafür ein gutes Beispiel.

Kann das funktionieren ohne einen Menschen, der den Prozess steuert?

Simon: Durchaus. Aber ob das eine gute Sache ist, ist eine andere Frage. In Teilbereichen kann die künstliche Intelligenz autonom agieren, solange man ihr nicht mittels Recht oder Technik Grenzen setzt. Die neue Datenschutzverordnung garantiert deshalb das Recht, dass Prozesse nicht vollständig automatisiert sind, sondern immer noch ein Mensch dazwischengeschaltet sein muss. Nehmen Sie den Finanzmarkt: Die Algorithmen können in Sekundenbruchteilen massive Verluste oder Gewinne bewirken, ohne dass ein Mensch so schnell eingreifen könnte. Wir müssen uns fragen, ob wir dies aus einer gesellschaftlichen und rechtlichen Perspektive heraus wollen. Und wenn nicht: Wie intervenieren wir?

Viele Menschen empfinden Unbehagen angesichts dieser Entwicklung.

Simon: In unserem Alltag gehen wir bereits ständig mit Geräten um, die in beschränktem Umfang schon autonom Dinge tun. Bei einer Google-Suche gibt es ja keine Person, die die Ergebnisliste noch kuratiert, das erfolgt automatisiert. Bei solchen Datenmengen ist es gar nicht möglich, das manuell zu tun. Man muss ganz genau hinschauen, wo man automatisierte Entscheidungen möchte und wo nicht.

Wir stecken also in einem Zwiespalt – einerseits sind die Datenmengen heutzutage zu groß, als dass wir Menschen sie verarbeiten könnten, andererseits haben wir Sorge, diesen Prozess ganz an Maschinen abzugeben.

Simon: Je weitreichender eine Entscheidung ist, die ich an künstliche Intelligenz delegiere, desto größere Anforderungen werde ich an die Verstehbarkeit und Nachvollziehbarkeit der Software stellen, zum Beispiel bei der Frage, welcher Straftäter Bewährungsstrafen bekommen und wer ins Gefängnis muss.

Bewährung oder Gefängnis – das klingt so, als ob auch ein Richter durch künstliche Intelligenz zu ersetzen wäre.

Simon: Prinzipiell ja, es ist nur die Frage, ob man das will. Alle regelbasierten Entscheidungen lassen sich grundsätzlich von künstlicher Intelligenz fällen, indem man das System mit allen vorherigen Urteilen und Parametern füttert und ihm aufgibt, künftig entsprechend zu entscheiden.

Wäre das gerecht?

Simon: Das ist eine Riesenfrage. Bestimmte Verzerrungen, die durch die Person eines vielleicht voreingenommenen, rassistischen, liberalen oder besonders strengen Richters bedingt sind, werden womöglich durch die künstliche Intelligenz ausgeschlossen. Auf der anderen Seite sind lernende Systeme sehr stark abhängig von den Daten, mit denen sie trainiert werden. Wenn es Probleme in den Daten oder bei der Optimierung gibt, wie im speziellen Fall einer Software, die in den USA von Gerichten bei der Bewährungsentscheidung mithilfe der Vorhersage von Rückfallquoten von Straftätern eingesetzt wurde, dann ergibt dies auch Verzerrungen. Die Idealvorstellung ist eine sinnvolle Kombination von beiden. An Maschinen sollten die Aufgaben delegiert werden, die diese gut beherrschen können, mit vielen Daten und unter der Prämisse, dass die Methodik überprüft wird. Oft allerdings lassen sich Firmen nicht in die Software schauen, da es sich um Geschäftsgeheimnisse handelt. Diese darf man dann meiner Ansicht nach nicht für öffentliche, sehr wirkmächtige Entscheidungen einsetzen.

Sie sprechen immer von lernenden Systemen – wie lernen denn Systeme und wie viel können diese lernen?

Steinicke: Im Prinzip über Feedbackschleifen. Künstliche Intelligenz hat ihre Ursprünge in der Bilderkennung. Man hat einem Computer beigebracht zu erkennen, was eine Katze ist, indem man ihn immer wieder mit Katzenbildern gefüttert hat und zurückmeldet: richtig erkannt, falsch erkannt. Der Computer fängt selbst an zu identifizieren, was für ihn Katzenbilder sind, und kommt der Beschreibung immer näher.

Können Maschinen auch Gefühle lernen?

Steinicke: So wie künstliche Intelligenz nicht wirklich intelligent ist, sondern Intelligenz simuliert, so können die Systeme auch Gefühle nur simulieren.

Simon: Maschinen können menschliche Emotionen interpretieren, und sie können so gestaltet werden, dass sie Gefühle ausdrücken. Das bedeutet aber nicht, dass sie in dem Moment Emotionen empfinden, diese werden nur simuliert.

Aber sie können Emotionen ihres Gegenübers verarbeiten?

Steinicke: Ja, das machen sie bereits. Dazu haben manche Maschinen eine Sensorik, die beispielsweise die Herzfrequenz, Hautleitfähigkeit oder Pupillenbewegung misst. So wird das Befinden des Gegenübers interpretiert und kann dann für die automatisierte Entscheidungsfindung genutzt werden, im Autobau etwa, wenn die Sensoren erkennen, dass ein Fahrer müde ist, und die Anzeige eine Pause vorschlägt oder das Licht heller wird. Und natürlich sind Maschinen in der Lage, Gefühle zu repräsentieren. Humanoide Roboter, also der menschlichen Gestalt nachempfundene Maschinenwesen, können so programmiert werden, dass sie beispielsweise ein Lächeln zeigen. Das interpretiere ich als Nutzer dann als Gefühl. Diese Emotionen sind aber vollständig simuliert. Die Maschine hat keinerlei Emotionen.

Ist es sinnvoll, Roboter beispielsweise in der Pflege einzusetzen?

Simon: Das hängt davon ab, auf welche Weise. Es kann sinnvoll sein, sie zur Unterstützung von Pflegern einzusetzen, etwa beim Heben schwerer Dinge oder bei anderen schweren Tätigkeiten. Daneben gibt es auch Pflegeroboter wie Paro, der wie eine kleine Robbe aussieht und mit dem Menschen interagiert.

Klingt doch schrecklich, oder?

Simon: Darüber kann man streiten, man sollte aber nicht alles von vornherein ablehnen. Sondern sich darüber Gedanken machen, wo der Einsatz Sinn macht und wo nicht. Und auch wie man mit der frei werdenden Zeit, die die Pfleger durch die Roboter gewinnen, umgeht. Ob es unter dem ökonomischen Druck Einsparungen gibt oder ob die Zeit den Patienten zugutekommt im Sinne von mehr Unterhaltung, menschlicher Zuwendung oder sonstiger Kommunikation. Nicht die rein technische Frage ist entscheidend, sondern die Überlegung, wie man sie so einsetzen kann, dass sowohl Pfleger als auch Patienten profitieren.

Welche Einsatzbereiche von Robotern sind noch besonders strittig?

Simon: Viele! Bei Industrieroboter geht es darum, was aus den Arbeitsplätzen und der Verteilungsgerechtigkeit wird. Bei Militärrobotern wie Drohnen oder Kampfrobotern stellt sich die Frage, ob die Maschine den Tötungsbefehl selbst geben oder immer nur ausführen darf. Sexroboter werfen die Fragen auf, was das mit den Benutzern macht und mit dem Frauenbild in der Gesellschaft.

Künstliche Intelligenz zieht immer mehr auch im Haushalt ein.

Simon: Ich besitze seit einigen Tagen einen Staubroboter, der selbstständig in meiner Wohnung staubsaugt. Aber da stellt sich die Frage: Was ist mit den Daten, die da gesammelt werden, wenn das Gerät mit Sensoren im Raum navigiert und die Wohnung abbildet? Das ist ein Grundproblem, auch bei Systemen mit Sprachassistenten wie Amazons Alexa. Wenn die zuhört, wenn ich mit ihr rede, dann kann sie prinzipiell ja immer zuhören, und es besteht die Möglichkeit, alles aufzuzeichnen – und es gab hier ja auch schon Berichte, dass Alexa Gespräche aufzeichnet und zufällig an Bekannte versendet hat. Mir persönlich käme Alexa nicht ins Haus. Problematisch ist zudem, dass oft große Unternehmen wie Amazon oder Google hinter diesen Entwicklungen stehen, die ohnehin schon sehr viele Daten von mir besitzen.

Das erfordert doch eine wahnsinnige Regulierung, wenn diese Technologie beherrschbar sein soll.

Steinicke: Das ist teilweise nicht einfach zu lösen, zumal die einzelnen Länder unterschiedliche Regelungen haben und die Gerichte teilweise relativ lange brauchen, um zu Entscheidungen zu kommen. In der Zwischenzeit schreitet die technische Entwicklung voran, insofern hinken wir da immer etwas hinterher. Spannender finde ich die gesellschaftlich-ethische Diskussion. Am Ende entscheiden die potenziellen Nutzer ein Stück weit, wogegen sie Bedenken haben und was sich durchsetzen kann.

Simon: Das stimmt, aber manche Dinge gehören auch rechtlich geregelt. Man muss sich klarmachen: Wir alle optimieren unsere Lebenswelt ganz pragmatisch. Wenn Maschinen oder Systeme oder Angebote unseren Alltag einfacher machen, dann muss man sich schon ganz bewusst dagegen entscheiden. Wenn alle individuell optimieren, kann das zu systemischen Problemen führen. Hinzu kommt: Man ist nicht das freie Atom, das autonome Entscheidungen trifft. Wenn die Kommunikation in der Kita-Gruppe über WhatsApp läuft, und ich möchte diese Plattform aber nicht nutzen, dann bin ich raus. Deshalb ist in manchen Fragen schon der Gesetzgeber gefragt.