Desinformation:  Wie die Fanboys von Elon Musk versuchen, Mastodon zu diskreditieren

Ein irreführender Blogartikel über Mastodon geht derzeit bei Elon Musks Fanboys und in rechten Kreisen viral – zuletzt auch in einer Publikation des Ex-Bild-Chefredakteurs Julian Reichelt. Es handelt sich um Desinformation mit einer Art Mastodon-Pizzagate, die sich perfekt in die Verschwörungsideologie von QAnon einreiht. Ein Kommentar. Unter Fans von Elon Musk sowie rechten und rechtsradikalen Kreisen kursiert derzeit ein Artikel, in dem behauptet wird, dass Mastodon eine Plattform sei, die von Pädophilen dominiert würde und auf der die Mehrheit der Inhalte dementsprechend sei. Der Artikel des Blogs Secjuice vom November stützt sich auf ein Ereignis aus dem Jahr 2017, als einige japanische Mastodon-Instanzen gegründet wurden, auf denen sexualisierte Zeichnungen von Kindern gepostet und toleriert wurden. Das ist tatsächlich passiert. Die japanischen Instanzen waren vergleichsweise groß im damals noch kleinen Fediverse – doch sie wurden sehr bald von der (westlichen) Fediverse-Community blockiert. Das kommt im Artikel jedoch nicht vor, stattdessen suggeriert er, dass Mastodon heute „eine Social-Media-Plattform“ sei, auf der solche Inhalte weiterhin die Mehrheit der Postings stellen würden. Man würde diese Inhalte als Nutzer:in nur nicht sehen, weil der Mastodon-Entwickler Eugen Rochko quasi deswegen die Suchfunktion verhindert habe. Und nun seien wir alle im bösen „Pedoverse“ unterwegs – ohne es zu wissen. (…) Nun hat dieser englischsprachige Blog-Artikel, dessen Autor auch schon zuvor gegen Mastodon angeschrieben hat und in seinen Artikeln immer kumpelhaft vom „Elon“ redet, gleich mehrere Schwächen: Er vermengt Vergangenheit und Gegenwart unter Weglassung von Ereignissen in der Vergangenheit. Eine klassische Methode der Desinformation, in der man alte Geschichten falsch darstellt und so tut, als seien sie aktuell. Weitere Mittel der Desinformation im Artikel sind die irreführende Wiedergabe der zugrundeliegenden Technik im Fediverse, der Verantwortlichkeiten bei frei verfügbarer Software sowie die Unterschlagung der Moderationsmechaniken und der tatsächlichen Moderationspraxis im Fediverse. (…) Es liegt nicht in der Hand von Entwicklern einer quelloffenen (Social Media) Software, wie sie später genutzt wird oder welche Inhalte Menschen auf ihren Servern teilen. Hierfür also Mastodon in Haftung nehmen zu wollen, ist vor allem eines: Bullshit. Die Durchsetzung von Recht und Gesetz oder selbst Regeln des guten Geschmacks und Umgangs miteinander kann gar nicht bei den Entwickler:innen einer frei verfügbaren Software liegen, sondern bei den Polizeien der jeweiligen Rechtsprechung, die gegen eine kriminelle Nutzung vorgehen müssen, sobald ihnen diese bekannt wird, und bei den Admins der Instanzen. Außerdem kommt hinzu, dass Mastodon eine Software ist, die man an ein dezentrales soziales Netzwerk, das Fediverse, anschließen kann. Im Fediverse kann man unterschiedliche Software nutzen, die teilweise über ein gemeinsames Protokoll miteinander sprechen können. Und im Fediverse bestimmen alle Instanzen selbst, ob sie überhaupt mit anderen Instanzen sprechen wollen und welche anderen Instanzen bei ihnen in welcher Form angezeigt werden und welche nicht. Man hat es also nicht mit einer zentralen Plattform zu tun, auf der ein Elon Musk auf Zuruf irgendwelche Accounts sperren kann, sondern mit vielen Mitspielern, welche die Inhalte moderieren und Instanzen „deförderieren“ können, also ausschließen oder auch schwerer sichtbar machen. Und das passiert auch. Transparente Listen, welche Instanzen blockiert werden Eine gut gepflegte Instanz im Fediverse zeigt transparent eine Liste mit den Instanzen an, die sie blockiert hat und nennt auch die Gründe dafür, wie man am Beispiel von Mastodon.social oder chaos.social sehen kann. Instanzen-Admins tauschen sich auch darüber aus, welche Instanzen sie blockieren, und halten diese Listen aktuell. Die 2017 blockierte japanische Instanz Pawoo ist heute beispielsweise immer noch in den Blocklisten. Auch werden oft zusätzlich solche Server ausgesperrt, die solche Instanzen nicht blockieren. Es gibt also ein funktionierendes System der Moderation, das diese Probleme auf dem Schirm hat. Netzpolitik.org hat eine umfassende Sammlung von hunderten Instanz-Blocklisten einsehen können, aus der genau das hervorgeht. Der Großteil der Community moderiert zudem auch andere menschenverachtende Haltungen wie Rassismus, Sexismus, Homophobie und Transphobie und blockiert Instanzen, die nicht aktiv gegen diese Inhalte vorgehen. Deswegen haben auch rechtsradikale Mastodon-Projekte wie Gab.ai in der Community keine Chance und verkümmern isoliert vor sich hin. Hier liegt also in der Tat die Verantwortung der jeweiligen Instanzen, dass sie bestimmte Communities im Fediverse abklemmen, sobald sie Kenntnis darüber erlangen. Und das tun sie auch

via netzpolitik: Desinformation:  Wie die Fanboys von Elon Musk versuchen, Mastodon zu diskreditieren

https://twitter.com/janboehm/status/1605566333353091072