Berlin. Wohnung, Job, Kredite: Immer öfter urteilen Maschinen über uns. Eine Expertin erklärt, wie eine KI vorgeht und was dabei schiefläuft.
Der eine bekommt das gewünschte Kreditkartenlimit, die andere nicht. Ein Bewerber erhält die begehrte Wohnung oder den hochbezahlten Job, der andere geht leer aus. Wichtige Entscheidungen, die das Leben von Millionen Verbrauchern beeinflussen, werden heute maßgeblich mithilfe Künstlicher Intelligenz (KI) getroffen. Wann wollen wir für wichtige Entscheidungen Maschinen nutzen – und wo sollten weiterhin Menschen entscheiden, weil KI-Systeme bestimmte Gruppen diskriminieren?
Mit Fragen wie dieser beschäftigt sich Katharina Zweig seit Jahren, aktuell in ihrem neuen Buch „Die KI war’s!“. Im Interview erklärt die Informatikprofessorin von der Technischen Universität Kaiserslautern-Landau (RPTU), wo geheim gehaltene Algorithmen unser Leben beeinflussen und wie sich Verbraucher gegen dramatische Fehlurteile der KI wehren können.
Frau Zweig, wann haben Sie sich von einer Künstlichen Intelligenz mal unfair behandelt gefühlt?
Katharina Zweig: Zu Beginn meiner Promotion. Es gab noch nicht viele Frauen in meinem Feld. Ich habe bei Google ganz viele technische Dinge abgefragt und dann sehr viel Werbung bekommen – für die Verlängerung von Körperteilen, die ich physisch einfach nicht besitze (lacht). Ich denke, da wurde ich eine Zeit lang für einen Mann gehalten. Das war nicht unfair, aber eine Fehlentscheidung der KI. Schlimmer finde ich aber, wenn mich Leute „Herr Professor“ nennen, weil sie sich nicht vorstellen können, dass es auch weibliche Informatik-Professorinnen gibt.
In Ihrem Buch erklären Sie, nach welchem Muster Maschinen Entscheidungen über Menschen treffen. Diskriminiert so eine KI häufiger als viele glauben?
Maschinelles Lernen funktioniert so, dass in Daten der Vergangenheit nach Mustern gesucht wird, um Entscheidungen über die Zukunft zu treffen. Eine Bank könnte sich angucken, welche Kunden einen Kredit bekommen haben und wer davon den Kredit ordnungsgemäß abbezahlt hat. Maschinelles Lernen kann dann nach Mustern suchen und für die Zukunft vorhersagen, ob ein Kunde das wahrscheinlich tun wird oder nicht. Bei einer Bank sind diese Eingangsdaten hoffentlich noch nicht diskriminierend.
KI-Expertin Zweig: „Maschinen sind nicht per se objektiv“
Wo dann?
Zweig: Anders kann das aussehen, wenn KI die Rückfälligkeit von Kriminellen vor Gericht vorhersagt. Gerade in den USA ist es bekannt, dass Afroamerikaner öfter auf der Straße angehalten und durchsucht werden. Wenn sie dann zum Beispiel kleine Mengen an Drogen bei sich haben, werden sie öfter festgenommen, öfter angeklagt und öfter verurteilt. Diese Personengruppe taucht daher viel häufiger in den Datenbanken auf – aber nicht unbedingt, weil sie krimineller ist, sondern weil sie stärker verfolgt wird. Und wenn natürlich solche diskriminierenden Daten mit einem sogenannten „Bias“ (Voreingenommenheit; d. Red.) verwendet werden, damit die Maschine etwas lernt, dann hat die Maschine den Eindruck, diese Bevölkerungsgruppe ist besonders gefährdet für Rückfälligkeiten. Richter könnten sie dann vermehrt oder länger ins Gefängnis stecken. Solche Maschinen sind also nicht per se objektiv.
Wie lernen solche KI-Systeme?
Zweig: So wie Kinder auch lernen. Unser achtjähriger Sohn hat uns vor kurzem damit überrascht, dass er niemals ein Schiff betreten wird. Wir fragten ihn, was hast du denn für ein Problem mit Schiffen, sie sind ein super sicheres Transportmittel? Er hatte aber bei einem Kumpel mal einen ganzen Nachmittag lang Schiffsunglücke auf YouTube angeguckt – herzlichen Glückwunsch! Dieser Bias hat ihn dann beeinflusst. Das passiert auch bei uns: Wenn wir nur Beispiele aus einer bestimmten Richtung bekommen, wird sich unser Gehirn denken, dass da etwas ist. Und genauso passiert das den Maschinen auch.
Welche Gruppen werden von Maschinen besonders häufig benachteiligt?
Zweig: Das sind die Personengruppen, die wir als Menschen benachteiligen. Die Maschine erfindet diese Benachteiligung nicht. Wenn sie in den Daten vorhanden ist, dann wird die Maschine sie mit großer Wahrscheinlichkeit finden – und dann unter Umständen sogar noch stärker durchsetzen.
- Auch interessant: Künstliche Intelligenz: So einfach entlarven Sie einen Fake
Wo passiert das schon?
Zweig: Wenn zum Beispiel ein Arbeitgeber zu 20 Prozent bestimmte Gruppen diskriminiert, daraus jetzt aber ein Software-System gemacht wird, das in ganz viele Branchen verkauft wird, dann wird diese Gruppe plötzlich in all diesen Branchen diskriminiert. Das Problem vergrößert sich damit. Dazu kommt die angebliche Objektivität – das Gefühl, dass die Maschine irgendwie mehr weiß als wir. Als drittes Problem kommt dazu, dass Verantwortung delegiert wird. Denn natürlich ist es viel angenehmer, wenn es die Maschine ist, die einen Jobkandidaten nicht haben will, das scheint ja dann die Wahrheit zu sein. Eine am Anfang kleinere Diskriminierung kann sich so leicht über mehrere Branchen ausweiten und sich dort verfestigen.
„Maschinen können keine Begründung für ihre Entscheidung liefern“
Welche Entscheidungen sollten überhaupt von Künstlicher Intelligenz gefällt werden?
Zweig: Bei faktischen Entscheidungen – wer ist auf einem Bild zu sehen? – und bei risikobasierten Entscheidungen – wird ein Kredit zurückbezahlt –, habe ich unabhängige Prozesse zur Verifikation. Die kann ich im Nachhinein laufen lassen, um herauszukriegen, ob die Maschine bei ihrer Entscheidung gut genug war. Werturteile wie Schulnoten sollten aus meiner Sicht grundsätzlich nicht von KI-Systemen übernommen werden. Denn Maschinen können Stand heute keine Begründung für ihre Entscheidung liefern. Hat es große gesellschaftliche Konsequenzen, wenn sich diese Maschine irrt, dann sollten wir KI dort nicht einsetzen. Und bei Einzelentscheidungen – was ist die beste Strategie im Ukraine-Krieg oder in einer Pandemie? – gibt es weder genügend Daten, von denen die Maschine lernen kann, noch einen Verifikationsprozess – da darf man KI-Systeme gar nicht verwenden.
- Lesen Sie auch:ChatGPT für die Hausaufgaben? Wann Eltern eingreifen sollten
Wie schnell lässt sich diese Ungleichbehandlung durch KI beheben?
Zweig: Die Frage nach Diskriminierung hat uns in den letzten Jahrtausenden bei menschlichen Entscheidungen viel beschäftigt. Wir können nicht erwarten, dass wir dasselbe Problem, das jetzt maschinell auftritt, innerhalb von wenigen Jahren lösen können. Am Ende sind es die gesellschaftlichen Prozesse, die wir ändern müssen, damit die Daten so aussehen, dass Maschinen damit gut weiterarbeiten können.
Zur Person
- Katharina Zweig ist seit 2012 Informatikprofessorin an der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU), dort hat sie den deutschlandweit einmaligen Studiengang „Sozioinformatik“ ins Leben gerufen.
- Sie gilt in Deutschland als eine der bekanntesten Erklärerinnen von Algorithmen. Zweig ist als Expertin für verschiedene Bundesministerien tätig und war 2018 bis 2020 Mitglied der Enquete-Kommission des Bundestages zum Thema KI.
- Ihr aktuelles Buch „Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz“ ist im Heyne Verlag erschienen.