Une étude récente réalisée par la Mozilla Foundation, une organisation à but non lucratif spécialisée dans les logiciels, a révélé que 71 % des vidéos jugées inacceptables par les participants à l’étude leur avaient été suggérées par le propre algorithme de recommandation de YouTube.
« Les participants de l’étude ont été confrontés à toute une série de vidéos regrettables, allant des campagnes de peur face au Covid à la désinformation politique, en passant par des dessins animés pour enfants totalement inappropriés », écrit la Fondation Mozilla dans un communiqué.
La plus grande enquête jamais réalisée sur la population à propos du controversé algorithme de recommandation de YouTube a révélé que le logiciel automatisé continue de recommander des vidéos que les spectateurs considèrent comme « dérangeantes et haineuses », a déclaré Mozilla, y compris celles qui violent les propres politiques de contenu de YouTube.
L’étude a porté sur près de 38 000 utilisateurs de YouTube répartis dans 91 pays, qui ont partagé à Mozilla des données sur les « expériences regrettables » qu’ils ont vécues sur la plateforme de contenu vidéo la plus populaire au monde. Dans l’ensemble, les participants ont signalé 3 362 vidéos regrettables entre juillet 2020 et mai 2021, les catégories de « regret » les plus fréquentes étant la désinformation, les contenus violents ou graphiques, les discours de haine et les spams/escroqueries.
Mozilla a déclaré que près de 200 vidéos que l’algorithme de YouTube recommandait aux participants à l’étude ont depuis été retirées de la plateforme, dont plusieurs que YouTube a jugées en violation de ses propres politiques.
« YouTube doit admettre que son algorithme est conçu d’une manière qui nuit aux gens et les désinforme », a déclaré Brandi Geurkink, responsable principal de la défense des droits chez Mozilla, dans un communiqué. « Notre recherche confirme que YouTube non seulement héberge, mais recommande activement des vidéos qui violent ses propres politiques. »
« Mozilla espère que ces résultats – qui ne sont que la partie émergée de l’iceberg – convaincront le public et les législateurs du besoin urgent d’une plus grande transparence de l’IA[intelligence artificielle] de YouTube. »
Un porte-parole de YouTube a déclaré à Epoch Times que l’entreprise a pris des mesures pour réduire les recommandations de contenus jugés nuisibles à moins de 1 % des vidéos visionnées sur la plateforme. La société a également déclaré qu’elle accueillait favorablement toute recherche additionnelle sur cette question et qu’elle explorait les possibilités de faire appel à des chercheurs indépendants pour étudier ses systèmes.
L’étude de Mozilla apporte un regard neuf sur l’algorithme de recommandation secret de YouTube, que l’entreprise a elle-même reconnu, dans un billet de blog de 2019, avoir besoin d’ajustement. YouTube a déclaré avoir, depuis janvier 2019, « mis en oeuvre plus de 30 changements différents visant à diminuer les recommandations de contenu jugé ‘limite’ et de désinformation nuisible ». Selon l’entreprise, ces actions auraient entraîné une baisse moyenne de 70 % du temps de visionnage de ce type de contenu.
« Cela dit, il y aura toujours du contenu sur YouTube qui frôle nos politiques, mais qui ne franchit pas tout à fait la ligne », a déclaré YouTube.
L’étude de Mozilla a également révélé que le taux de vidéos « regrettables » était supérieur de plus de 60 % dans les pays non anglophones, notamment au Brésil, en Allemagne et en France.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.