Duisburg. „Irgendwo gehört, aufgeschrieben, gepostet“: Wer Fake News teilt, glaubt sie manchmal selbst nicht. Und trägt bei zu Desinformationskampagnen.
Wer verbreitet Desinformationen in Sozialen Medien und wie kann man sie erkennen? Dazu entsteht derzeit ein Forschungsschwerpunkt an der Uni Duisburg-Essen im Verbund mit den Unis Köln, Tübingen und Bremen und privaten Partnern. Prof. Stefan Stieglitz leitet das Projekt zur Bekämpfung von Fake News, das vom Bundesforschungsministerium mit 1,6 Millionen Euro gefördert wird.
Die Wahrheit stirbt im Krieg zuerst, heißt es. Stellen Sie im Zusammenhang mit dem Ukraine-Konflikt eine Zunahme an Desinformation fest?
Auch interessant
Stieglitz: Dazu fehlen uns noch Daten, aber bei fast jeder Krise kommt es zu einer Verbreitung von Falschinformationen. Krise bedeutet ja Unsicherheit, man weiß nicht genau, was passiert, wie es sich entwickeln wird, es gibt eine große Dynamik – und in so einem Umfeld verbreiten sich Falschinformationen besonders gut und schnell. Viele Nutzer sind darauf aus, ihre Wissenslücken zu schließen, und tendieren auch dazu, nicht geprüfte Informationen weiterzuleiten. Sie müssen diese Infos nicht unbedingt glauben, es trägt aus ihrer Sicht aber etwas bei. Irgendwo gehört, aufgeschrieben, gepostet. So verbreiten sich Gerüchte, aber auch absichtlich gestreute Falschinformationen, und es ist stark anzunehmen, dass das ebenso im Ukrainekonflikt passiert.
Wie kann man Fake News unterscheiden von Posts, die nur eine andere Perspektive einnehmen?
Für den einzelnen Nutzer ist das sehr schwierig. Oft fehlt ihm das Hintergrundwissen, oft sind Falschinformationen Grauzonen. Es steckt viel Wahres drin, aber vermengt mit Unwahrem, im falschen Kontext oder fraglich interpretiert. Man kann als Nutzer die Info in mehreren seriösen Quellen suchen und vergleichen. Stimmen sie überein, dann kann man davon ausgehen, dass die Information eher geprüft und eher wahr ist. Auch Faktencheck-Organisationen gucken sich sowas an. Bei Infos von Webseiten, die man noch nie vorher gesehen hat oder Posts von Quellen, die man vorher nicht kannte, muss man misstrauisch sein. Die Plattformen versuchen, ein bisschen mehr Hilfestellung zu geben, indem sie verstärkt Infos als fraglich markieren. Aber auch die Wertung, was Meinung ist, was falscher Fakt, ist kompliziert. An unserem Projekt sind darum Ethiker und Rechtswissenschaftler beteiligt, die Posts für uns einordnen.
Wie funktioniert eine moderne Desinformationskampagne?
Das wollen wir nun herausfinden. International hat man in einigen Studien gesehen, dass ausländische Akteure aktiv wurden und sich in eine scheinbar interne Debatte eingebracht haben. Da geht es nicht immer um klare Desinformation, sondern um kampagnenartige Meinungsmache. Uns interessieren neben der inhaltlichen Perspektive aber vor allem Muster der Verbreitung. Wird Desinformation über Menschen oder automatisiert verbreitet, über sogenannte Bots in und außerhalb von Sozialen Netzwerken? Werden Accounts sehr kurzfristig aufgemacht, um monothematisch bestimmte Informationen zu verbreiten? Und wie kann man das als Struktur erkennen?
Man hört ja oft von russischen Trollarmeen …
Es ist für Wissenschaftler wirklich sehr schwer zu sagen, wer was konkret mit welcher Intention verbreitet. Plattformbetreiber haben wesentlich mehr Daten. Hinter Fake News können auch triviale Motive stecken. Radikale, emotionale, falsche Posts erzeugen vielleicht mehr Aufmerksamkeit, Nutzer wollen mehr darüber erfahren. Und werden zu Webseiten geführt, die vielleicht seriös aussehen, die aber Fake News verbreiten, um an den Klicks zu verdienen.
Welchen Anteil haben staatliche Akteure?
Das hängt stark vom Land ab. So zeigt eine Studie, dass in Venezuela staatliche Akteure automatisierte Accounts einsetzen. Für Deutschland haben wir uns mal die Landtagswahl 2017 in NRW angeschaut. Social Bots konnten wir nur in Einzelfällen entdecken. Man kann nicht sagen, dass es hier einen groß angelegten Versuch gab, das Ergebnis zu beeinflussen.
Wie erkennt man denn ein Bot-Profil?
Auch interessant
Es gibt Dienste wie „Botometer“ für Twitter, bei denen man Accounts prüfen lassen kann. Aber die sind auch fehleranfällig und man weiß auch nicht, welche Kriterien sie einsetzen. Wir schauen unter anderem nach folgenden Indizien: Mit welcher Frequenz postet jemand, ist das realistisch? Oder folgen sich diese Accounts untereinander, um echt auszusehen? Dadurch ergeben sich Netzwerkstrukturen, die untypisch sind für menschliche Nutzer.
Wären Facebook, Twitter und Co. nicht in der Pflicht, das stärker zu unterbinden?
Das könnten die, und sie machen es nun auch stärker, weil der politische Druck zugenommen hat. Allerdings ist das Erzeugen von Traffic aus Plattformsicht erstmal gut – und gerade emotionale und fragliche Inhalte erzeugen Interaktion. Darum steht die Entfernung von solchen Posts vielleicht nicht ganz oben auf der Prioritätenliste. Twitter nimmt aber nun tatsächlich in deutlich stärkerem Ausmaß Accounts vom Netz, wenn sie in Richtung Hate Speech gehen oder offensichtlich Bots sind.
Müsste Medienkunde stärker Unterrichtsstoff werden?
Insgesamt ist es wichtig, ein Bewusstsein dafür zu schaffen, dass es Falschinformationen im Netz gibt, und zwar viele. Soziale Medien gibt es nun zwar schon lange. Aber die Relevanz und auch die Masse an Informationen, die dort verbreitet werden, ist doch noch neu für viele. Schüler müssen früh darauf vorbereitet werden, auch weil sie viel in den nichtöffentlichen Sozialen Medien sind, sprich WhatsApp und Telegram. Auch die Plattformbetreiber müssen stärker in die Pflicht genommen werden. Es ist zu befürchten, dass Falschinformationen noch viel raffinierter werden. Mit Deep Fakes kann man Menschen im Video Worte in den Mund legen oder künstliche Akteure schaffen, die aussehen wie Menschen. Es ist eine gesellschaftliche Herausforderung, sich darauf zu einigen, wo die wahren Informationen zu finden sind - und wie sie vom Rauschen, von den Gerüchten und von Falschinformationen zu trennen sind.
>> Info: Wie erkenne ich Fake News? Was, wenn ich reingefallen bin?
Aktuelle Faktenchecks bieten Seiten wie tagesschau.de (Faktenfinder), mimikama.at oder correctiv.org. Natürlich kommen auch die nicht hinterher angesichts der Masse an Desinformation, doch die Chance ist groß, hier die populärsten Memes zu finden. Mimikama nennt auch einige Tipps, woran man selbst Desinformation erkennen kann: Ist eine Quelle genannt? Ist sie bekannt und seriös? Wird mit reißerischer Sprache und emotionalen Begriffen gearbeitet? Beruht der Post auf Verallgemeinerungen („Alle sind ...“) oder Verschwörungstheorien (heimliche Strippenzieher ...)? Eine Suche mit Google-News offenbart, ob und was andere Medien darüber geschrieben haben. Auch eine umgekehrte Bildersuche gibt es bei Google.
Und was, wenn man erkennt oder darauf hingewiesen wird, dass man selbst Fake News gepostet hat? Man sollte zuerst die Nachricht richtigstellen, bevor man sie löscht, rät Mimikama. Weisen Sie andere Nutzer auf die Falschinformation hin. Dann machen Sie einen Screenshot und löschen Sie den Beitrag.