Bonn (dpa/tmn). KI-Chatbots können begeistern, sogar nützlich sein und Aufgaben übernehmen. Die Technologie dahinter birgt aber auch großes Missbrauchspotenzial. Was kommt da auf Nutzerinnen und Nutzer zu?
KI-Chatbots erzeugen Text von erstaunlich hoher Qualität: Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche, Geschichten in einem bestimmten Schreibstil - oder sogar funktionierenden Programmcode. Die Bots bearbeiten, prüfen, analysieren oder übersetzen aber auch beliebigen Text und Code.
Das alles kann unterhaltsam bis nützlich sein. Gleichzeitig birgt der Einsatz dieser Technologie „neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen“. Zu diesem Schluss kommt das Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Positionspapier.
Hinter jedem KI-Chatbot steht ein sogenanntes Sprachmodell. Große KI-Sprachmodelle, auch Large Language Models (LLMs) genannt, sind Computerprogramme, die in der Lage sind, natürliche Sprache in geschriebener Form automatisiert zu verarbeiten.
Bekannte Modelle sind etwa GPT von OpenAI oder Palm von Google. Palm verwendet Google für seinen Chatbot Bard. Und GPT kommt bei ChatGPT oder dem Bing-Chat von Microsoft zum Einsatz.
Das BSI nennt folgende bekannte Bedrohungen, die KI-Sprachmodelle weiter verstärken können:
- Das Erstellen oder Verbessern von Schadsoftware.
- Das Erzeugen von Spam- und Phishing-Mails unter Ausnutzung menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst (Social Engineering).
- Dabei können Sprachmodelle den Schreibstil der Texte in den Mails so anpassen, dass er dem einer bestimmten Organisation oder Person ähnelt.
- Die bei Spam- und Phishing-Mails bislang häufig anzutreffenden Rechtschreib- oder Grammatikfehler, die helfen können, solche Nachrichten zu erkennen, finden sich in den automatisch generierten Texten mittlerweile kaum mehr.
- Nicht nur zahlenmäßig dürften sich E-Mail-Angriffe mithilfe von KI-Sprachmodellen mit verhältnismäßig geringem Aufwand steigern. Die Nachrichten lassen sich vermittels der Modelle auch noch überzeugender gestalten.
Und das sind ganz neue Probleme und Bedrohungen durch KI-Sprachmodelle, die das BSI identifiziert hat:
- Ein großes Risiko ist, dass Angreifer Eingaben von Nutzerinnen oder Nutzern heimlich in ein Sprachmodell umleiten, um den Chat zu manipulieren und Daten oder Informationen abzugreifen.
- Ohnehin besteht immer die Gefahr, dass eingegebene Daten nicht unbesehen bleiben, sondern vom Chatbot-Betreiber analysiert oder an unbekannte Dritte weitergegeben werden.
- Es ist möglich, dass Sprachmodelle zur Produktion von Fake News, Propaganda oder Hassnachrichten missbraucht werden, um die öffentliche Meinung zu beeinflussen.
- Die Fähigkeit zur Schreibstil-Imitation birgt hier eine besondere Gefahr: Falschinformationen könnten mit einem an bestimmte Personen oder Organisationen angepassten Stil verbreitet werden.
- Denkbar sind den Angaben zufolge auch maschinell erstellte Bewertungen, die dazu eingesetzt werden können, Dienstleistungen oder Produkte zu bewerben oder auch zu diskreditieren.
Ein Grundproblem von Chatbots ist, dass die zum Training des Sprachmodells verwendeten Daten und deren Qualität maßgeblich die Funktionalität beeinflussen. Daraus ergeben sich laut BSI folgende Risiken:
- Fragwürdige Inhalte wie Desinformation, Propaganda oder Hassrede in der Trainingsmenge des Sprachmodells können in sprachlich ähnlicher Weise in den KI-generierten Text einfließen.
- Es ist nie sicher, dass KI-generierte Inhalte aktuell oder faktisch korrekt sind. Denn ein Sprachmodell kann Informationen nur aus den bereits „gesehenen“ Texten ableiten. Alle darüber hinausgehenden Einordnungen, die Menschen aus der realen Welt bekannt sind, können Modelle nicht vornehmen. Deshalb kann es sogar zum Erfinden von Inhalten kommen, das sogenannte Halluzinieren.
Fazit: Nutzerinnen und Nutzer sollten kritisch bleiben. Durch sprachlich oft fehlerfrei generierten Text entstehe bei der Nutzung von KI-Sprachmodellen häufig der Eindruck eines menschenähnlichen Leistungsvermögens - und damit ein zu großes Vertrauen in KI-generierte Inhalte, obwohl diese unangemessen, faktisch falsch oder manipuliert sein können.