Essen/Bonn. Wie entscheiden Künstliche Intelligenzen? Forscher suchen im Auftrag der Stiftung Mercator nach besseren ethischen Regeln.
Wenn ein Banker Kredite vergibt, wenn eine Personalchefin Bewerbungen sortiert, wenn eine Autofahrerin den kürzesten Weg sucht, ist schon heute oft Künstliche Intelligenz im Spiel. Die Programme treffen selbst keine Entscheidungen, aber sie spielen eine entscheidende Rolle – in immer mehr Bereichen, wo über Teilhabe von Menschen entschieden wird. Darum gibt die Stiftung Mercator mit Sitz in Essen fast vier Millionen Euro für das Forschungsprojekt „Wünschenswerte Digitalisierung“ der Universitäten Bonn und Cambridge. Es geht um die Frage, wie man der Künstlichen Intelligenz (KI) von morgen Ethik beibringt?
„In Großbritannien wurden in der Pandemie mit Hilfe eines Algorithmus Noten vergeben“, sagt Carla Hustedt, die den Schwerpunkt „Digitalisierte Gesellschaft“ bei der Stiftung Mercator leitet. In Frankreich wurden Studenten auf Universitäten zugeteilt mit Hilfe eines Programms. KI steckt in der Internetsuche, in Sozialen Netzwerken, in Assistenten wie Siri und Alexa. Aber es ist nicht immer so offensichtlich: Wo bitte gibt es eine ethische Komponente bei Google Maps? Gegenfrage: Was ist die beste Route – jene, die die Fahrerin auf dem schnellsten Weg ans Ziel bringt, oder die, die Anwohner am besten vor Verkehrslärm und Feinstaub schützt?
Weißer Mann oder farbige Frau – wenn Algorithmen diskriminieren
„Wenn wir uns solcher Werteabwägungen nicht bewusst werden, werden sie von Informatikern oder Tech-Konzernen getroffen und nicht in transparenten demokratischen Prozessen“, sagt Hustedt. „Die meisten Produkte werden auch einfach besser, nicht nur ethisch betrachtet, wenn sie für unterschiedliche Menschen gleich gut funktionieren können.“ Gesichtserkennung etwa funktioniert für weiße Männer deutlich besser als für farbige Frauen.
Aktuell stellt der Bonner Philosophieprofessor Markus Gabriel das Team zusammen, die ersten Forscherinnen kommen aus Oxford und Stanford, ab September soll die Arbeit losgehen: Zunächst untersuchen sie Ideen über Mensch und Maschine in verschiedenen Kulturen. Dann geht es um die Anwendung von KI im Alltag und wie man Nachhaltigkeit und Gerechtigkeit in den Mittelpunkt stellen kann. „Das Robotikbild in Japan ist ganz anders als das in Bayern“, sagt Gabriel. Und China geht anders mit Gesichtserkennung auf Plätzen und Straßen um als Europa.
Das Timing stimmt jedenfalls. Die EU hat sich vor gerade einer Woche auf ein Digital-Gesetz gegen Hass und Hetze geeinigt, den „Digital Service Act“. Damit verbunden soll über ein weiteres Gesetzpaket die Marktmacht von Tech-Giganten wie Google und Facebook eingeschränkt werden (Digital Markets Act). In eine ähnliche Richtung geht das im Koalitionsvertrag festgeschriebene Ziel der Regierung, „Plattformräte“ für Twitter & Co. aufzubauen, die vor allem deren Aktivitäten gegen Hassrede und illegale Inhalte kontrollieren sollen. Die Forscher wollen mit ihrer Arbeit auch eine bessere Basis für solche Regulierungen liefern.
„Social scoring“ soll in der EU verboten werden
So bereitet die EU gerade eine Richtlinie zur Regulierung von KI vor. Zum Beispiel soll die „behördliche Bewertung des sozialen Verhaltens“, wie sie China eingeführt hat, verboten werden, ebenso wie „Spielzeug mit Sprachassistent, das Kinder zu riskantem Verhalten verleitet“. Ein Stufensystem sieht verschiedene Prüfungen für Lösungen mit hohem, begrenzten oder minimalem Risiko vor: für das autonome Auto, das in Unfallsituationen über Leben und Tod entscheiden muss, computergestützte Chirurgie, die Grenzkontrolle oder die Prüfung von Beweismitteln bei Gericht.
Für den Tech-Milliardär Elon Musk (Twitter, Tesla) ist KI die „größte Gefahr für die Menschheit.“ Und in der Tat sieht auch Markus Gabriel ein bedrohliches Potenzial: „ Es ist sicher kein Zufall, dass sowohl Russland als auch China massiv in KI-Systeme investieren. Einige kommen auch im Ukraine-Krieg zum Einsatz, sowohl im Angriff, als auch bei der Verteidigung, etwa zur Vorhersage von Truppenproblemen. Die Tochter Wladimir Putins leitet das große KI-Forschungsinstitut der Moskauer Uni. Aber dass KI in einem Terminator-Szenario die Menschheit erledigt, halte ich für Angstmache, mit der man vor allem Geld machen kann.“
Gemeint ist nicht Bewusstsein, sondern Mustererkennung
Auch interessant
Man dürfe auch „nicht in die Falle tappen, die Technologien als zu machtvoll zu verstehen“, sagt Hustedt. Wenn man heute von Künstlicher Intelligenz spricht, meint man Mustererkennung und keinesfalls Bewusstsein. Ein Programm wird zum Beispiel mit vielen Bildern von Gewebeproben und Daten über den damit verbundenen Gesundheitszustand von Patienten gefüttert. Dann kann es womöglich schon früher als der menschliche Arzt feststellen, wann eine Krebserkrankung droht. Aber die Regeln, nach denen das System zu seinen Aussagen kommt, bleiben dem Mensch verborgen. „KI ist ein Verkaufsbegriff aus dem Silicon Valley, den ich versuche zu vermeiden“, sagt Hustedt. „Ich glaube, dass er bei vielen Leuten die Vorstellung eines autonom handelnden Systems hervorruft und die menschliche Verantwortung dahinter verschleiert.“
Auch in Zukunft wird man einem Programm nicht beibringen können, wie man eigenständig ethische Urteile fällt, erklärt Markus Gabriel. Denn Ethik hängt vom Kontext ab und ist offen – verschiedene Methoden konkurrieren, wie man zu einem Urteil kommt. Darum folgen auch Menschen oft keinen klaren Regeln. „Der Nachteil ist: Wir wissen selbst manchmal nicht, wie wir ethisch urteilen. Der Vorteil: Wir sind flexibel. Wenn unsere ethischen Regeln immer feststünden, würden wir festhängen zu einem bestimmten historischen Zeitpunkt.“
>> Info: Mitdiskutieren im Digitalen Mercator Salon
„Was Künstliche Intelligenz mit uns als Menschen macht“ ist das Thema des Digitalen Mercator Salons mit Markus Gabriel am Mittwoch, 4. Mai, um 18 Uhr. Eine Anmeldung ist möglich unterwww.stiftung-mercator.de/de/veranstaltungen.
Der Salon ist Teil der KI Biennale Essen, einem Festival über Künstliche Intelligenz in Kultur, Gesellschaft, Wissenschaft und Wirtschaft. Infos: ki-biennale.de