Bonn. . Mensch-Maschinen werden sie genannt. Doch Künstliche Intelligenz bewertet und kategorisiert uns. Philosoph Markus Gabriel warnt eindringlich.
Was darf Künstliche Intelligenz? Experten sind sich einig, dass diese Technologie unser Leben und unsere Arbeitswelt verändern wird wie keine andere zuvor. Doch sollen Algorithmen darüber bestimmen, wer einen Job, einen Kredit, eine Operation oder eine Gefängnisstrafe bekommt? Wie weit dürfen Computer in unser Leben eingreifen und wie „moralisch“ können sie entscheiden? Darüber sprachen wir mit Prof. Markus Gabriel, der an der Uni Bonn zur Philosophie der Künstlichen Intelligenz forscht. Gabriel ist zudem an der „Kompetenzplattform KI.NRW“ des Landes beteiligt.
Prof. Gabriel, welche Aufgabe haben Sie innerhalb der „Kompetenzplattform KI“? Markus Gabriel: Wir wollen ein vernünftiges, philosophisch fundiertes Konzept für die künftige digitale Infrastruktur entwickeln. Denn mit der Anwendung von KI sind viele ethische Fragestellungen verknüpft. Die bekannteste ist mit autonomen Fahrzeugen verbunden: Wie soll sich das Auto in einer unlösbaren Unfallsituation verhalten? Soll es die ältere Dame auf der Straße überfahren oder auf den Gehweg ausweichen, wo ein Kind steht? Das ist eine typische Dilemma-Situation. Und: Wer haftet bei einem Unfall? Die Software-Entwickler oder der Fahrzeughalter? Die KI berührt aber auch philosophische Fragen, die das Wesen des Menschseins betreffen.
Wie meinen Sie das?
Können uns Maschinen ersetzen? Ist der Mensch nur eine Art vernünftiger Roboter? Vor allem in den USA wird dies diskutiert. Und: Wo bedroht KI unsere Freiheitsrechte und den demokratischen Rechtsstaat? Wir beobachten gerade in China eine rasante Entwicklung der Überwachungstechnologie. Wollen wir das? Darüber müssen wir uns klar werden. Und das ist meine Rolle in der KI-Plattform des Landes.
KI wird in Wissenschaft, Wirtschaft oder Medizin als große Zukunftslösung betrachtet. Wie sehen Sie das als Philosoph?
Ich sehe das kritisch. Denn es gibt gar keine künstliche Intelligenz. Intelligenz ist eine Eigenschaft, die nur Lebewesen haben. Es ist die Fähigkeit, ein Problem in einem bestimmten Zeitraum zu lösen. Ein nicht wirklich lebendiges System kann aber nicht intelligent sein, weil es gar kein Problem hat. Computer haben keine Probleme, sondern wir lösen mit Hilfe des Computers unsere Probleme. Das maschinelle System selbst ist dumm wie eine Wand. Das heißt, es werden immer Fehler passieren bei der Anwendung der Maschine auf Probleme unserer Lebenswelt. Hier muss der Mensch eingreifen.
Sie entwickeln für die „Kompetenzplattform KI“ einen Prüfkatalog für die Anwendung der Technologie. Was bedeutet das?
Man kann es sich vorstellen wie eine Art Ethik-TÜV. Wir schauen uns Anwendungen von KI in Unternehmen und Institutionen nach ethischen Kriterien genau an. Denn eine App kann auch diskriminierend sein.
Zum Beispiel?
Facebook wäre nie durch unsere Prüfung gekommen. Denn es teilt Personen und Situationen nach der wahrgenommenen Attraktivität ein. Darauf baut der Algorithmus auf. Dadurch gibt es Vorteile für bestimmte Typen von Menschen, die dem Ideal entsprechen und Nachteile für andere, die aus dem Modell herausfallen. Das ist diskriminierend.
Die Landesregierung diskutiert den Einsatz von KI bei Strafverfolgung und Polizei. Wie sehen Sie das?
Ich habe teilweise Bedenken. Wenn wir menschliche Urteilskraft und KI kombinieren, kommen wir natürlich zu besseren Ergebnissen. Denn das System kann aus riesigen Datenmengen Muster erkennen und herausfiltern. Aber wenn allein die Technik angewendet wird und Polizisten oder Juristen ersetzen soll, führt das zu nichts.
Wo wäre der Einsatz von KI in diesem Bereich sinnvoll?
In den sozialen Medien kann man straffrei jeden beschimpfen. Die Behörden können die Fälle gar nicht verfolgen, weil es zu viele sind. Facebook oder andere könnten eine KI einbauen, die automatisch Beleidigungen sperrt, das wäre ein sinnvoller Einsatz. Eine solche Software existiert bereits, doch sie wird nicht eingesetzt.
„Ist ein Computer für sein Urteil haftbar?“
Sollen Algorithmen bestimmen dürfen, wer einen Job, einen Kredit oder eine Gefängnisstrafe bekommt?
Auf keinen Fall! Diese Entscheidungen müssen Institutionen treffen, die dafür auch haftbar sind. Ist ein Computer für sein Urteil haftbar? In einem demokratischen Rechtsstaat können wir klagen und uns gegen mögliche Fehlurteile zur Wehr setzen. Wenn wir der Illusion der perfekten Maschine folgen, ist niemand mehr haftbar oder zuständig. Wir brauchen dafür weiterhin menschliche Urteilskraft.
Können Algorithmen diskriminieren?
KI-Systeme können Menschen diskriminieren. Denn immer häufiger werden Algorithmen dazu eingesetzt, Menschen nach Kategorien zu bewerten und zu differenzieren, etwa nach Kleidung, Hautfarbe, Geschlecht, Alter, Familienstand, Einkommen oder Beruf. Dabei geht es zum Beispiel um Prognosen, mit welcher Wahrscheinlichkeit ein Mensch in der Lage ist, seinen Kredit zurückzuzahlen. Darüber dürfen solche System nicht alleine entscheiden.
Kann man einem Computer Moral einprogrammieren?
Nein, das kann man nicht. Man müsste sich zunächst darüber klar werden, mit welchen Werten wir der Maschine füttern wollen. Vor einigen Jahrzehnten herrschten noch ganz andere Wertvorstellungen als heute, etwa was Gleichberechtigung, Umweltschutz oder Tierethik angeht. Menschen ändern ihr moralisches Koordinatensystem ständig. Das kann man Maschinen nicht beibringen.
Zwingt uns KI also auch, uns über unsere Wertvorstellungen klar zu werden?
Ja, so wirkt die digitale Welt auf unsere analoge Urteilskraft zurück. Wir brauchen einen gesellschaftlichen Diskurs mit Wirtschaft, Politik, Medien und Zivilgesellschaft um uns darüber klar zu werden, was unsere Werte eigentlich sind, bevor wir Maschinen urteilen lassen. Kurz: Wir müssen herausfinden, wer wir sind und wer wir sein wollen.
Dieser Text ist zuerst in der Digitalen Sonntagszeitung erschienen. Jetzt für zwei Monate gratis bestellen! Hier geht’s zum Angebot: