Essen. . Fremdenfeindliche Hetze, rassistische Parolen und explizite Aufrufe zur Gewalt: Facebook geht nur sehr zögerlich gegen rechte Hass-Kommentare vor.

Das Bild ging um die Welt, rührte Millionen Menschen und befeuerte wohl auch die Hilfsbereitschaft gegenüber Flüchtlingen: Der leblose Körper des dreijährigen Aylan an einem türkischen Strand, der kleine Kopf im Sand, von Wellen umspült. Dieses erschütternde Bild brachte das Flüchtlingsdrama auf den Punkt. Benjamin S. aber schreibt auf seiner Facebookseite: „Wir trauern nicht, sondern wir feiern es.“

Wenig später stürmten Beamte die Wohnung des polizeibekannten Verfassers in Berlin. Schon zuvor hatte der 26-Jährige einen Neonazi „gelobt“, der in der S-Bahn auf Roma-Kinder urinierte. Er habe das tote Kind verunglimpft und seine Menschenwürde verletzt. Nach Meinung der Polizei könnte ihm dafür Gefängnis drohen.

Beiträge bleiben online und werden nicht gelöscht

Seit Wochen steht Facebook un­ter Beschuss, weil das soziale Netzwerk nicht konsequent gegen Hass­botschaften vorgeht. Beiträge, die offensichtlich rassistisch, fremdenfeindlich und menschenverachtend sind, bleiben online, selbst wenn besorgte Nutzer sie gemeldet haben. Auch in der Politik wächst die Empörung. Justizminister Heiko Maas (SPD) bezeichnete diese Praxis als „Farce“ und forderte das Unternehmen auf, entschiedener gegen rassistische Inhalte vorzugehen. Facebook müsse seine „Gemeinschaftsstandards“ ändern.

Auch interessant

Auf diese Standards beruft sich Facebook immer dann, wenn es darum geht, beleidigende Kommentare oder deren Verfasser zu sperren. Unsere Redaktion machte den Praxistest und meldete mehrere Kommentare und ein Video dem Unternehmen. In einem Beitrag heißt es: „Alle Ausländer einsteigen, wir fahren nach Auschwitz.“ In einem Kommentar fantasiert der Verfasser davon, mit einem Schrotgewehr in ein Flüchtlingsheim einzudringen. In einem weiteren Beitrag bedauert der Autor nach dem Flüchtlingsdrama in Österreich, dass in dem Laster nicht noch mehr Menschen umkamen. Die Reaktion war enttäuschend: Facebook fand zunächst nichts, was den „Gemeinschaftsstandards“ widerspreche.

Nach Auskunft von Facebook werde jede von einem Nutzer eingebrachte Beschwerde von einem Muttersprachler begutachtet. Anschließend werde auf Grundlage der „Standards“ entschieden, ob die Kommentare den eigenen Regeln entsprechen. Gegebenenfalls werden sie dann gesperrt oder, wie in dem Test – eben nicht. Zur Prüfung werde den Mitarbeitern aber jeweils nur der gemeldete Inhalt vorgelegt, sagte der Firmensprecher.

Facebook-Mitarbeiter sehen nicht immer Kontext

Im Einzelfall kann es also sein, dass ein Facebook-Mitarbeiter, der womöglich im Ausland sitzt, neben dem Kommentar nichts zum Kontext erfährt, in dem dieser steht. Dieses Vorgehen erklärt auch, warum Bilder von blanken Brüsten schneller und häufiger gesperrt werden als Beleidigungen. Ein entblößter Busen braucht offensichtlich keinen Kontext, der ei­ne Sperrung nötig werden lässt.

Auch interessant

Facebook sieht sich als ein sich selbst kontrollierendes Medium. In einem schriftlichen Statement von Facebook ermutigt das Unternehmen daher seine Nutzer, bedenkliche Inhalte weiter zu melden. „Diese Möglichkeit, Inhalte zu melden, gibt Nutzern weitaus mehr Kontrolle darüber, was sie sehen, als das im Internet generell der Fall ist“, heißt es dort.

Dass manche Inhalte gelöscht werden, andere nicht, ist ein strukturelles Problem: Facebook ist ein globales Netzwerk mit einer Milliarde Nutzern. Was hierzulande als rassistisch gilt, läuft in den USA unter Meinungsfreiheit. Dort wiederum ist Nacktheit ein Tabu. Das aber lässt Justizminister Maas nicht gelten. Facebook sei gesetzlich verpflichtet, rechtswidrige Inhalte zu löschen.