Cambridge. Die Macher von KI-Systemen versichern, dass ihre Maschinen stets sauber arbeiten. Offensichtlich halten sie sich nicht an die Regeln.
Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen - selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift „Patterns“ veröffentlicht wurde.
Wissenschaftler sind alarmiert von dem Ergebnis
Als Konsequenz aus den Erkenntnissen fordern die an der Studie beteiligten Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.
Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, „größtenteils ehrlich und hilfsbereit“ zu sein.
Auch interessant
Sprachmodelle weichen auf Täuschungen aus
Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehre Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.
Die Gründe dafür sind noch nicht klar dargelegt. Möglicherweise ist der Algorithmus in solchen Fällen so angelegt, dass KI es bevorzugt, zu lügen statt keine Antwort geben zu können. Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel vor Wahlen eingesetzt werden. (ftrg/dpa)