Berlin. Gesichter und Muster erkennt künstliche Intelligenz besser der Mensch. Doch KI grenzt zu viele aus, warnt Expertin Kenza Ait Si Abbou.

Zum zweiten Mal findet heute der bundesweite Digitaltag statt, mit mehr als 2000 Online-Aktionen und Präsenzveranstaltungen vor Ort. Unser Privat- und Arbeitsleben wird immer digitaler. In wichtigen Lebensbereichen trifft künstliche Intelligenz (KI) Entscheidungen, die jeden betreffen. Eine der wenigen sichtbaren Frauen in dieser Branche ist Kenza Ait Si Abbou. Im Interview spricht die 40-jährige Expertin für KI und Robotik über unsichtbare KI im Alltag, gravierende Schwächen der Technik und den Einfluss von Frauen in der IT.

Frau Ait Si Abbou, Sie sagen, jeder von uns ist schon viel mehr von künstlicher Intelligenz umgeben, als wir sehen und merken. Wo denn zum Beispiel?

Kenza Ait Si Abbou: Navigation auf dem Handy, bequemeres Einkaufen und Fahrunterstützung in Autos nutzen wir bewusst. Aber selbstlernende KI-Systeme entscheiden auch über meinen Kreditantrag bei der Bank oder darüber, ob ich eine Kreditkarte bekomme oder nicht. Auch Aufzüge oder Heizungsanlagen werden im Hintergrund mit KI vorausschauend gewartet. Das bekomme ich nicht mit, führt aber dazu, dass beide – etwa bei mir im Haus – weniger oft kaputtgehen. In unserem Mailpostfach landen kaum noch Spam-Mails aufgrund von lernender KI. Unser Leben wird bequemer, aber im Hintergrund läuft dafür einiges.

Anders als Laien vielleicht annehmen, arbeiten KI-Systeme nicht immer neutral oder fair. Wo benachteiligt KI bestimmte Menschengruppen oder Minderheiten?

Man spricht in der Tech-Gemeinschaft lieber über die Potenziale der KI als über die Risiken. Zum Beispiel die Gesichtserkennung, die bei dunkelhäutigen Menschen weniger gut funktioniert. Oder Spracherkennung, die bei Frauen schlechter funktioniert. Kreditwürdigkeit, die abhängig vom Geschlecht entschieden wird. Die Justiz in den USA nutzt KI-Systeme, welche die Wahrscheinlichkeit berechnen, mit der Inhaftierte nach der Freilassung rückfällig werden. Hier hat sich gezeigt, dass die KI diskriminiert: Schwarze und Latinos mussten länger im Gefängnis bleiben. Erst danach haben einige in der Tech-Gemeinschaft gemerkt: Wir bauen hier Mist und müssen etwas dagegen tun. KI-Technologie ist also nicht per se neutral.

biometric verification and face detection
biometric verification and face detection © iStock | istock

Sie wollen gezielt Mädchen und Frauen motivieren, programmieren zu lernen und technische Berufe zu ergreifen: Warum ist Ihnen das so ein Anliegen?

Erst mal sind Berufe in der KI und Robotik wahnsinnig spannend, bieten viele Möglichkeiten und sind auch sehr flexibel und familienfreundlich. Genauso wichtig ist: Wir Frauen müssen die Entwicklung der KI mitbestimmen. Momentan wird diese Technologie sehr einseitig entwickelt. Das können wir nicht zulassen. Spracherkennungssysteme erkennen weibliche Stimmen nicht so gut wie männliche. Systeme zur Gesichtserkennung erkennen Frauen schlechter als Männer. KI-Systeme, die Kreditwürdigkeiten beurteilen, benachteiligen Frauen. Das müssen wir besser machen und uns deshalb als Frauen einbringen.

Warum diese Fehlentwicklung?

Diese KI-Systeme bauen auf bestehenden Daten aus der Vergangenheit auf. Diese Daten beinhalten in der Regel bereits Diskriminierungen. Denn unsere Gesellschaft ist nicht gerecht, das müssen wir einfach mal akzeptieren. Die KI lernt also die Diskriminierungen und wiederholt sie. Außerdem werden die Systeme meistens von den männlichen Entwicklern getestet. Fehlen Frauen in den Entwicklungsteams, fällt das Pro­blem erst beim Kunden auf, wenn es schon zu spät ist. Die KI braucht uns Frauen, damit sie besser funktioniert. Die Systeme lernen von uns Menschen und sollen für die ganze Gesellschaft da sein. Sie dürfen nicht nur für weiße Männer funktionieren.

Sie rufen dazu auf, dass sich neben Frauen auch gezielt andere Berufsgruppen einbringen – Soziologen etwa, Juristen oder An­thropologen.

Je mehr Diversität in den Entwicklerteams vorhanden ist, desto besser werden die KI-Systeme. Je nach Einsatz der KI werden derzeit ganz viele Menschen benachteiligt – nicht nur Frauen und Minderheiten. Nehmen wir den Wohnort: Lebe ich in einem bestimmten Postleitzahlenbezirk, kann ein KI-System mich unter Umständen bei der Kreditwürdigkeit benachteiligen. In Berlin-Neukölln zum Beispiel kann das auch weiße Männer treffen. Das ist wichtig zu betonen, damit sich die ganze Gesellschaft dafür interessiert und das verändern will.

Lesen Sie außerdem

In Ihrem Buch vergleichen Sie Algorithmen und Programmieren anschaulich mit Kochrezepten. Sollten künftig auch Schulkindern diese Fähigkeiten vermittelt werden?

Kinder sollten das logische Denken dahinter verstehen. Die Zukunft wird digitaler und automatisierter. Unsere Kinder sollen das mitgestalten und es nicht nur konsumieren oder sich gar als Opfer sehen und meinen, Roboter werden sowieso ihre Jobs übernehmen. Sie sollten nicht auf Berufe der Vergangenheit ausgebildet werden, sondern in der Zukunft arbeitsfähig sein. Jobs mit sich ständig wiederholenden Aufgaben verschwinden. Wichtig wird künftig, was Roboter nicht können: Probleme mit logischem Denken kreativ lösen, mit Komplexität umgehen. Stärken müssen wir auch emotionale Intelligenz, Empathie, Selbstverantwortung und Selbstbewusstsein. Wenn mir etwas Spaß macht, sprudelt das Schöpferische aus mir heraus. Darauf müssen wir die Kinder vorbereiten. Programmiersprachen werden immer nutzerfreundlicher, ohne aufwendiges Schreiben von viel Code. Wenn unsere Kinder die Schule verlassen, geht das wahrscheinlich schon rein über Sprachsteuerung. Die Grundlagen dafür kann man Kindern heute schon mit spielerischen Methoden mitgeben. Das funktioniert sogar ohne Computer, mit bestimmtem Spielzeug oder Stift und Papier.

Der heutige Digitaltag hat auch das Ziel, mehr Menschen am digitalen Leben teilhaben zu lassen. Was machen viele im Umgang mit Apps und Co. noch falsch?

Die Menschen sollen befähigt werden, selbstbewusst und verantwortungsvoll zu entscheiden, wie sie mit solchen digitalen Helfern und Apps umgehen. Lade ich eine App herunter, sollte ich wissen, welche Berechtigungen die App braucht, welche Daten sie mit anderen teilt und womit die Entwickler Geld verdienen. Ist eine App kostenlos, muss ich wissen, dass ich indirekt dafür zahle: in der Regel mit meinen Nutzerdaten, meiner Privatsphäre und Werbung. Diese Infos müssen Anbieter dank Datenschutz-Grundverordnung in die AGB schreiben – die kaum einer liest. Aber nur mit dem Wissen können wir uns bewusst für oder gegen App-Anbieter entscheiden – und fühlen uns nicht mehr als Opfer.

Zur Person: Kenza Ait Si Abbou

KI-Expertin und Buchautorin Kenza Ait Si Abbou engagiert sich für mehr Einfluss von Frauen in IT-Berufen und will digitale Themen leicht verständlich erklären.
KI-Expertin und Buchautorin Kenza Ait Si Abbou engagiert sich für mehr Einfluss von Frauen in IT-Berufen und will digitale Themen leicht verständlich erklären. © imago images/Metodi Popow | imago stock
  • Kenza Ait Si Abbou arbeitet seit über 15 Jahren in der IT-Branche und ist Managerin für Robotik und künstliche Intelligenz, Rednerin und Buchautorin.
  • 2020 erschien ihr Buch „Keine Panik, ist nur Technik“ bei Gräfe und Unzer. Darin will sie Leserinnen und Lesern Angst vor der Zukunft mit KI nehmen, erklärt unterhaltsam und verständlich, wie Programmieren funktioniert, und gibt Tipps für einen selbstbestimmten Umgang im Netz.
  • Die 40-Jährige engagiert sich dafür, mehr Frauen für die technischen MINT-Berufe zu begeistern und IT-interessierte Frauen zu vernetzen. Die gebürtige Marokkanerin lebt in Berlin.

Mehr zum Thema