Il a été constaté que les Algorithmes de Facebook diffusent des Facebook. C’est ce qu’a révélé un rapport interne de Wall Street. En 2018, Facebook a modifié son algorithme de recommandation afin de supprimer les contenus toxiques présents sur sa plateforme, mais en réalité l’outil fait tout le contraire selon un rapport interne.
Une modération moins stricte
Plusieurs documents internes de Facebook Ont été publiés par le Wall Street Journal la semaine dernière. Il a d’abord été question d’une modération moins stricte pour certains comptes « VIP « sur Instagram et Facebook, puis de la nocivité d’Instagram pour les jeunes filles. Mercredi de la même semaine, c’est l’algorithme de recommandation du réseau social qui est visé par ces documents, rapporte BFMTV.
En 2018, Facebook a modifié son algorithme de recommandation qui permet de nourrir le fil d’actualité des utilisateurs. Les équipes de Mark Zuckerberg voulaient accentuer « les interactions sociales qui ont du sens », c’est-à-dire entre amis, familles et proches. L’objectif était de moins confronter un utilisateur à un contenu « professionnel », qui peut altérer sa santé mentale.
Mais dans un rapport interne que le Wall Street Journal s’est procuré, un groupe de chercheurs au sein de l’entreprise américaine a démontré que l’algorithme se comportait en réalité bien différemment. Plutôt que de préserver l’utilisateur, celui-ci met en avant des contenus jugés violents, toxiques ou alors des fakenews.
« La désinformation, la toxicité et les contenus violents sont anormalement prévalents dans les contenus repartagés », est-il écrit dans l’un des mémos publiés par le quotidien américain. « Notre approche a eu des effets collatéraux malsains sur d’importantes parties des contenus, notamment en politique et en actualité. Notre responsabilité est grandissante », ajoutent les chercheurs.
vers le sensationnalisme et l’outrage
D’après les conclusions de cette enquête, certains partis politiques ou médias ont ainsi orienté leur ligne éditoriale vers le sensationnalisme et l’outrage. L’objectif : provoquer de « l’engagement », un terme évoquant les partages, les « likes » ou les commentaires liés à une publication.
Lire aussi : Burkina Faso : un feuilleton homosexuel diffusé sur la chaine nationale provoque des tollés
« Beaucoup d’interlocuteurs nous ont dit qu’ils craignaient, sur le long terme, les effets négatifs que peut avoir cet algorithme sur la démocratie », a déclaré un chercheur dans un rapport interne.
Avec Mutations