Mozilla’s new report is titled “YouTube Regrets: A crowdsourced investigation into YouTube’s recommendation algorithm.” Conducted using data donated by thousands of YouTube users, research reveals the algorithm is recommending videos with misinformation, violent content, hate speech, and scams. Research also finds that people in non-English speaking countries are far more likely to encounter disturbing videos. YouTube’s controversial algorithm is recommending videos considered disturbing and hateful that often violate the platform’s very own content policies, according to a 10-month long, crowdsourced investigation released today by Mozilla. The in-depth study also found that people in non-English speaking countries are far more likely to encounter videos they considered disturbing. (…) “YouTube needs to admit their algorithm is designed in a way that harms and misinforms people,” says Brandi Geurkink, Mozilla’s Senior Manager of Advocacy. “Our research confirms that YouTube not only hosts, but actively recommends videos that violate its very own policies. We also now know that people in non-English speaking countries are the most likely to bear the brunt of YouTube’s out-of-control recommendation algorithm.” Geurkink continues: “Mozilla hopes that these findings—which are just the tip of the iceberg—will convince the public and lawmakers of the urgent need for better transparency into YouTube’s AI.” Data collected through the study paints a vivid picture of how YouTube’s algorithm amplifies harmful, debunked, and inappropriate content: One person watched videos about the U.S. military, and was then recommended a misogynistic video titled “Man humilitates feminist in viral video.” Another person watched a video about software rights, and was then recommended a video about gun rights. And a third person watched an Art Garfunkel music video, and was then recommended a highly-sensationalised political video titled “Trump Debate Moderator EXPOSED as having Deep Democrat Ties, Media Bias Reaches BREAKING Point.”

via mozilla foundation: Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform’s Very Own Policies

siehe auch: YouTube Regrets. Mozilla führte mit Unterstützung von 37.380 YouTube-Nutzern eine Studie durch, um fragwürdige YouTube-Empfehlungen besser zu verstehen. Hier erfahren Sie, welche Erkenntnisse wir dabei gewonnen haben. 2019 sammelte Mozilla unzählige Berichte von Menschen, deren Leben sich durch den Empfehlungsalgorithmus von YouTube verändert hat. Nutzern wurden Fehlinformationen präsentiert, entwickelten eine ungesunde Körperwahrnehmung und wurden auf bizarre Abwege gebracht. Je mehr Berichte wir lasen, desto deutlicher wurde uns bewusst, welch eine zentrale Rolle YouTube inzwischen im Leben so vieler Menschen spielt – und wie sehr sich die Empfehlungen von YouTube auf ihr Wohlergehen auswirken können. Doch wenn YouTube mit diesen Auswirkungen seines Empfehlungsalgorithmus konfrontiert wird, reagiert das Unternehmen jedes Mal ausweichend und leugnet den Sachverhalt. Aufgrund dieser Weigerungshaltung hat Mozilla eine Browser-Erweiterung entwickelt: RegretsReporter. Diese ermöglicht es den Nutzern, Daten über die YouTube-Videos zur Verfügung zu stellen, deren Wiedergabe sie bedauern. Bei einer der größten per Crowdsourcing finanzierten Untersuchungen zu den Abläufen auf YouTube haben wir neue Erkenntnisse gewonnen, die dringend der Aufmerksamkeit und Schritte seitens der Gesetzgeber und der Öffentlichkeit bedürfen.

download report: YouTube regrets.

Categories: Rechtsextremismus