Les algorithmes de Facebook mettent plus en exergue les fausses informations. En effet, c’est la conclusion d’une étude sur le comportement des utilisateurs du plus grand réseau social lors des élections qui se sont déroulées durant l’année 2020 .

Longtemps critiqué sur ses algorithmes de l’entreprise alimentent la propagation de la désinformation sur des sources plus fiables, c’est encore une nouvelle étude qui vient de confirmer cette thèses sur la promotion des fausses informations qui remonte de 2016. « L’étude évaluée par des pairs menée par des chercheurs de l’Université de New York et de l’Université Grenoble Alpes en France a révélé que d’août 2020 à janvier 2021, les éditeurs de presse connus pour avoir diffusé des informations erronées ont obtenu six fois plus de likes, de partages et d’interactions sur le plate-forme comme l’ont fait des sources d’information dignes de confiance, telles que CNN ou l’Organisation mondiale de la santé. » En effet, selon le Washington Post, il a été démontré à plusieurs reprises que les éditeurs qui font du trafic de désinformation sont capables de gagner une audience importante sur la plate-forme. L’étude « contribue à ajouter au corpus croissant de preuves que, malgré une variété d’efforts d’atténuation, la désinformation a trouvé un foyer confortable – et un public engagé – sur Facebook », a déclaré Rebekah Tromble, directrice de l’Institute for Data, Democracy and Politics. à l’Université George Washington, qui a examiné les résultats de l’étude.
LIRE AUSSI  Enquête sur la désinformation: Facebook suspend des comptes d'universitaires
En réponse, Facebook a déclaré que le rapport mesurait le nombre de personnes qui interagissent avec le contenu, mais qu’il ne s’agit pas d’une mesure du nombre de personnes qui le visionnent réellement (Facebook ne rend pas ce dernier nombre, appelé impressions, accessible publiquement aux chercheurs) . « Ce rapport examine principalement la manière dont les gens interagissent avec le contenu, à ne pas confondre avec le nombre de personnes qui le voient réellement sur Facebook », a déclaré le porte-parole de Facebook, Joe Osborne. « Quand vous regardez le contenu qui a le plus de portée sur Facebook, cela ne ressemble pas du tout à ce que suggère cette étude. » Il a ajouté que la société dispose de 80 partenaires de vérification des faits couvrant plus de 60 langues qui travaillent pour étiqueter et réduire la diffusion de fausses informations. Les chercheurs ont également découvert que l’augmentation statistiquement significative de la désinformation est politiquement neutre – les pages de trafic de désinformation à la fois à l’extrême gauche et à l’extrême droite ont généré beaucoup plus d’engagement de la part des utilisateurs de Facebook que les pages factuelles de toute orientation politique. Mais les éditeurs de droite ont une propension beaucoup plus élevée à partager des informations trompeuses que les éditeurs d’autres catégories politiques, selon l’étude. Cette dernière conclusion fait écho aux conclusions d’autres chercheurs, ainsi qu’aux propres conclusions internes de Facebook avant les élections de mi-mandat de 2018, selon le Washington Post.
LIRE AUSSI  Facebook va monétiser son application Messenger

COMMENTAIRES

Je donne mon avis sur le sujet