Zwei bis drei Wochen lang zweifelt Michael* am Holocaust. An Geschichte, wie sie in Schulbüchern steht. Aus dem industriellen Massenmord des Nationalsozialismus wird für ihn ein Ereignis, das eigentlich die Juden und die Amerikaner mitorganisiert hätten. In einer privaten Facebook-Gruppe, der Michael 2015 beigetreten ist, gilt diese unter Neonazis beliebte Verschwörungserzählung als Realität. Die Medien lügen, lenken ihn von der Wahrheit ab, denkt Michael und will mehr Gruppen finden, in denen solche Themen diskutiert werden. Er muss nicht lange suchen. Facebook hilft ihm. In den folgenden Wochen und Monaten wird Michael fast 200 Gruppen beitreten – nach eigenen Angaben geleitet durch Vorschläge des Facebook-Algorithmus. Anfangs ist er fasziniert, bald entsetzt, dann angewidert von dem Hass und der Verachtung, die er dort findet. Heute bilden die Gruppen, in denen er Mitglied war, die Grundlage für den bisher tiefsten Einblick in eine rechte, mitunter rechtsextreme Schattenwelt im weltweit größten Netzwerk. Denn Michael teilt die Gruppenliste mit Reporter*innen von BR, NDR und WDR. Diese werten viele der meist privaten Gruppen, oft mit vielen Tausenden Mitgliedern, systematisch aus. Mit einer einfachen Schlagwortsuche finden sie weit mehr als tausend mutmaßlich strafbare Inhalte: Von Holocaustleugnung, bis zu hundertfachen Aufrufen zu Mord und Vergewaltigung. Auch Terrorverdächtige waren in den Gruppen aktiv.
Alle Beispiele, die in diesem Artikel gezeigt werden, stammen aus den analysierten Facebook-Gruppen. Sie blieben jahrelang unwidersprochen stehen, teilweise bis heute. Viele der Darstellungen und Äußerungen sind derart grenzüberschreitend, dass die extremsten Inhalte hier nicht auftauchen. Beispielsweise wird der elektrische Stuhl als „neuer Bürostuhl“ einer Politikerin bezeichnet und in einer Karikatur mit einem Hammer ausgeholt, um auf Genitalien von Menschen einzuschlagen. Klaus Gorny, der Sprecher von Facebook Deutschland, sagt im Interview mit BR, NDR und WDR: „Wir möchten Hassrede natürlich löschen. Und wir haben im Kampf gegen Hassrede in den letzten Jahren sehr große Fortschritte gemacht.“ Doch die Recherche wirft Fragen auf, ob der Konzern wirklich genug unternimmt. Es ist das Jahr 2017, als Michael beschließt, gegen die Hetze vorzugehen. Er beginnt, in der ersten Gruppe systematisch nach Hass-Beiträgen zu suchen, und meldet sie an Facebook. Von Facebook bezahlte Moderatorinnen prüfen, ob die von Michael gemeldeten Beiträge auch wirklich gegen die Regeln des Netzwerks, die sogenannten Gemeinschaftsstandards, verstoßen. In diesen ist festgelegt, was auf Facebook erlaubt ist und was nicht. Tatsächlich löscht Facebook einige gemeldete Beiträge. Doch manches bleibt stehen: Nicht gelöscht wurde etwa ein antisemitisches Propagandavideo, in dem unter anderem Adolf Hitler glorifiziert wird, das Hakenkreuz gezeigt und Juden als Verantwortliche für Migrationsbewegungen in Europa dargestellt werden. Michael entschließt sich, eine Liste mit 180 Gruppennamen zu erstellen. Er wendet sich an die Reporterinnen.
Sie beantragen mit erfundenen Identitäten selbst Zutritt zu den Gruppen. Nicht immer dürfen sie eintreten, doch meist dauert es nicht lange, bis ein Administrator sie hereinlässt, ohne weitergehende Prüfung. Insgesamt können sie 138 Gruppen einsehen und die darin enthaltenen Inhalte sichern. Wochenlang erfassen sie automatisiert alle in den Gruppen geposteten Beiträge. So entsteht eine Datenbank mit mehr als 2,6 Millionen Posts und Kommentaren. Die ältesten reichen zurück bis ins Jahr 2010, die aktuellsten stammen vom November 2019. (…) Wie das Wall Street Journal kürzlich berichtete, analysierte eine Facebook-Mitarbeiterin schon im Jahr 2016 deutsche Facebook-Gruppen mit politischen Inhalten. Das Ergebnis: Jede dritte Gruppe sei voll von rassistischen oder verschwörungsideologischen Beiträgen. Die Zeitung zitiert aus einer internen Präsentation. Dort heißt es: „64% aller Beitritte in extremistischen Gruppen gehen auf unsere Empfehlungswerkzeuge zurück.“ Und weiter: „Unsere Empfehlungssysteme vergrößern das Problem.“ Darauf angesprochen, verweist Facebook darauf, in den vergangenen drei Jahren Maßnahmen gegen polarisierende Inhalte getroffen zu haben.
via br: Wie Facebook beim Hass im Netz versagt