Oxford. Wenn es um Künstliche Intelligenzen geht, machen sich viele Menschen Sorgen um die Auslöschung der Menschheit. Diese Gefahr ist unbegründet, so eine Expertin. Viele präsenter seien andere Risiken.
Eine Expertin hat Warnungen vor einer Auslöschung der Menschheit durch Künstliche Intelligenz (KI) als „PR-Aktion“ bezeichnet. Das sagte Sandra Wachter von der Universität Oxford der britischen Nachrichtenagentur PA zufolge. Die aus Österreich stammende Wissenschaftlerin erforscht in Oxford die rechtlichen und ethischen Auswirkungen von Künstlicher Intelligenz, Massendaten (Big Data) und Robotik.
Die Gefahr einer Auslöschung der Menschheit durch KI gehe nach derzeitigem Kenntnisstand „gegen null“, sagte Wachter laut der gestern Abend veröffentlichen PA-Meldung. Es handele sich um eine „Science-Fiction-Fantasie“ wie aus den Terminator-Filmen, die von den eigentlichen Gefahren ablenke und erst in Hunderten von Jahren Realität werden könne - oder auch nicht. „Man kann nichts Sinnvolles dagegen tun, weil es so weit in der Zukunft liegt“, so Wachter.
Echte Risiken
Es gebe zwar ernsthafte Risiken durch KI, aber das seien nicht diejenigen, die derzeit die ganze Aufmerksamkeit erhielten, führte die Forscherin aus. Die echten Probleme seien eher im Bereich von Vorurteilen, Diskriminierung und den Folgen für die Umwelt zu finden.
„Vorurteile und Diskriminierung kann ich messen, ich kann die Auswirkungen auf die Umwelt messen“, sagte Wachter. Es brauche beispielsweise etwa 1,4 Millionen Liter Wasser täglich, um ein mittelgroßes Rechenzentrum zu kühlen.
Zuvor hatte eine Reihe führender KI-Experten mit drastischen Worten dazu aufgerufen, die Risiken von KI für die Fortexistenz der Menschheit ernst zu nehmen. Zu den Unterzeichnern der kurzen Stellungnahme gehörte der Chef des ChatGPT-Erfinders OpenAI, Sam Altman.
Der Chatbot ChatGPT, der Sätze auf dem Niveau eines Menschen formulieren kann, löste in den vergangenen Monaten einen neuen Hype rund um Künstliche Intelligenz aus. Die Nonprofit-Organisation, auf deren Website der Text erschien, nennt als mögliche Gefahren von Künstlicher Intelligenz ihren Einsatz in der Kriegsführung.