Duisburg. . Computerprogramme versuchen, in sozialen Medien Nutzer zu beeinflussen. Forscher warnen: „Social Bots“ können die Demokratie bedrohen.
Unbemerkt versuchen automatische Programme im Internet, die Meinungsbildung der Nutzer zu beeinflussen. Software-Roboter schaffen Trends und erzeugen durch massenhaften Verkehr in den sozialen Netzwerken Stimmungen. Von den so erzeugten Meinungsbildern könnten sich Wähler und auch Politiker beeinflussen lassen.
Experten untersuchen bereits, inwiefern „Social Bots“ dadurch zu einer Gefahr für die Demokratie werden können. Gerade im Vorfeld von Wahlen wie zum Beispiel der Europawahl im Mai beobachten Experten eine deutliche Zunahme der Aktivitäten im Netz.
Wie Bots wirken und die öffentliche Meinung beeinflussen können, untersuchte der Informatiker Björn Ross von der Universität Duisburg-Essen gemeinsam mit Kommunikationswissenschaftlern.
Was sind „Social Bots“?
Dahinter verbergen sich Computerprogramme, die sich im Internet zu bestimmten Themen zu Wort melden. „Sie posten und liken und sind doch keine Menschen“, sagt Ross. In den sozialen Medien ist ein Bot (Kurzform für Robots – Roboter) ein Nutzerprofil zum Beispiel auf Facebook oder ein Twitteraccount, das von einem Programm gesteuert wird und nicht von Personen.
Auf den ersten Blick sind sie oftmals kaum von realen Absendern zu unterscheiden. Manche dieser Profile werden professionell und zentral gesteuert, um ganze „Bot-Armeen“ mit bestimmten Botschaften in Marsch zu setzen – was sich in den USA beobachten lässt. Sie vervielfachen die Meinung ihrer geheimen Auftraggeber und verbreiten sie in den sozialen Medien.
Welche Bot-Kampagnen gab es bereits?
IT-Experten haben solche Aktivitäten vor der Brexit-Abstimmung in Großbritannien und den US-Präsidentschaftswahlen im Jahr 2016 beobachtet. „Falschmeldungen und Verschwörungstheorien wurden gezielt platziert“, sagt Ross. Ziel sei es, den politischen Gegner in Misskredit zu bringen.
Zuletzt erregte eine massive Kampagne im Internet gegen den UN-Migrationspakt Ende 2018 Aufsehen. Eine Studie kam zu dem Ergebnis, wonach mehr als ein Viertel aller Tweets zum geplanten Migrationspakt von Social Bots stammen sollen.
Spielten Bots auch bei der Bundestagswahl eine Rolle?
Gestreut wurde etwa die Behauptung, die Bundesregierung täusche die Menschen über die Inhalte des Pakts. Allerdings legte die Studie nicht offen, mit welcher Methode die manipulativen Bots identifiziert wurden.
Bei Wahlen spielten in Deutschland Meinungsroboter bisher noch keine bedeutende Rolle, sagt Björn Ross. „Bei der Bundestagswahl 2017 wurden Bots nicht in großem Stil eingesetzt. Das heißt aber nicht, dass es in Zukunft nicht auch hier passieren wird.“ Sein Team werde daher bei der Europawahl am 26. Mai die Bot-Aktivitäten genau beobachten.
Wie beeinflussen Bots die Meinungen der Nutzer?
„Wie stark Bots Menschen beeinflussen können, war bislang nicht nachzuweisen, weil die wissenschaftlichen Methoden fehlten“, erklärt Ross. Um die Wirkung auf die Nutzer zu erforschen, hat Ross mit seinem Team daher ein Netzwerk mit tausend virtuellen Akteuren simuliert.
Die Annahme war, dass die Hälfte zu einem Thema eine positive Meinung hat – etwa Dieselfahrverbote – und die andere Hälfte dagegen ist. Das Team fand heraus, dass schon eine geringe Anzahl von Bots von zwei bis vier Prozent der Nutzer ausreicht, um Teilnehmer mit einer abweichenden Meinung zum Schweigen zu bringen.
Wie wirkt die „Schweigespirale“?
Dahinter steht das in der Kommunikationswissenschaft seit langem bekannte Phänomen der „Schweigespirale“. Wer in einer Debatte den Eindruck gewinnt, dass er mit seiner Meinung alleine steht oder zur Minderheit gehört, ist fortan lieber still. So setzt sich die Ansicht der vermeintlichen Mehrheit durch, obwohl dies nicht den wahren Verhältnissen entspricht. „Bots können eine solche Schweigespirale auslösen“, fanden Ross und seine Mitstreiter heraus.
Die Simulation der Forscher zeigt, wie die Software-Roboter ein bestimmtes Stimmungsbild erzeugen können und sich Nutzer davon beeinflussen lassen. Am Ende gewinnt das gewünschte Meinungsbild die Oberhand. Genau dieser Mechanismus macht den Einsatz von Bots so interessant für die politische Einflussnahme. Bei Wahlen könnten Bots das „Zünglein an der Waage“ sein, um das Ergebnis in die gewünschte Richtung zu lenken.
Wie geht die technische Entwicklung weiter?
„Noch sind die Programme nicht so ausgefeilt, dass sie Nutzer mit automatisch erzeugten Argumenten oder Kommentaren überzeugen können. Doch die künstliche Intelligenz macht rasante Fortschritte.“ In Zukunft könnten solche Programme kaum noch von menschlichen Nutzern zu unterscheiden sein, glaubt der Forscher.
Ross verweist auf aktuelle Vorgänge in den USA, wo bereits jetzt organisierte Kampagnen laufen, um den Ruf der Kandidaten der Demokraten für die Wahlen 2020 zu schwächen. Politische Gegner schreiben Posts auf Twitter, die anschließend von Tausenden weiteren Accounts automatisch verbreitet werden.
Wie groß ist die Gefahr in Deutschland?
Damit wird der Eindruck erweckt, dass eine Meinung von sehr vielen Menschen geteilt wird, obwohl dies nicht der Fall ist. Ross: „Das ist genau der Mechanismus, der heute schon realistisch umzusetzen ist und womöglich eine Schweigespirale auslöst.“
Ob die USA auch in dieser Hinsicht ein Vorreiter für zukünftige Entwicklungen in Deutschland sind, sei noch offen. Bisher scheue die deutsche Politik noch davor zurück, Software-Roboter in großem Stil einzusetzen. Ross: „Noch gibt es keinen Grund zur Panik. Aber wir müssen die Entwicklung aufmerksam verfolgen.“
>>>> Lassen sich Bots abwehren?
Das sei kaum möglich, erklärt der Duisburger Informatiker Björn Ross. Denn es gibt auch „gute“ Bots, etwa zur automatischen Katastrophenmeldung oder zur Verbreitung von Nachrichten. „Wie soll man gute von bösen Bots unterscheiden, etwa wenn es um kontroverse Themen wie den Klimawandel geht?“ Wann wird ein Bot in manipulativer Absicht verbreitet, wann in informativer? So lange die Internet-Konzerne kritische Bots nicht löschen, sollte man Informationen in sozialen Medien mit großer Vorsicht begegnen.