Chiffres à l’appui, Facebook démontre qu’il accélère sa lutte contre les fausses informations et les faux comptes. Mark Zuckerberg demande même aux législateurs de durcir les règles, alertant toutefois de l’incapacité des plateformes à tout filtrer.

Facebook continue à se battre contre la prolifération des infox et autres posts jugés indésirables sur sa plateforme. Une guerre acharnée, en première ligne de laquelle se trouvent ses équipes de modérateurs (35 000 personnes), de plus en plus aidées par des algorithmes de détection qui se perfectionnent. Si bien qu’entre le 1er octobre et le 31 décembre 2020, ce sont 1,3 milliard de faux comptes que Facebook a supprimés, en sus de millions d’informations jugées fausses.

Dans plus de 60 langues, des vérificateurs viennent également en aide aux modérateurs. Une centaine d’entre eux s’affairent à vérifier la teneur de propos échangés sur le réseau, là encore aidés par des outils formés à grand renfort d’apprentissage machine. Un travail titanesque que la pandémie de Covid-19 n’a fait qu’alourdir davantage puisque Facebook estime à 12 millions le nombre de publications déjà supprimées de ses pages depuis le début de la crise sanitaire.

Obligation de moyens, pas de résultats

C’est dans ce contexte que Mark Zuckerberg, qui s’apprête à une nouvelle audition devant le Congrès américain, a demandé aux législateurs de responsabiliser davantage les plateformes Internet et de durcir les règles, y compris pour Facebook lui-même. “Quelles que soient leurs opinions politiques, les gens veulent s’assurer que les entreprises prennent leurs responsabilités en matière de lutte contre les contenus illégaux sur les réseaux”, déclare-t-il.

LIRE AUSSI  Régulation des réseaux sociaux : Mark Zuckerberg annonce une nouvelle proposition

Tout comme Sundar Pichai (Google) et Jack Dorsey (Twitter) — qui seront eux aussi auditionnés —, Mark Zuckerberg veut que la loi de 1996 protégeant dans sa Section 230 les plateformes Internet en leur octroyant un statut de simple hébergeur soit revue et corrigée. Ainsi, “les plateformes devraient être obligées de prouver qu’elles ont des systèmes en place pour identifier les contenus illégaux et les retirer”, ce qui les forcerait à “combattre de la meilleure façon possible la propagation de ces contenus”.

Garantir l’équité entre petits et gros

Attention, dans le cas où un contenu problématique passerait entre les mailles du filet, Mark Zuckerberg ne souhaite pas pour autant que la plateforme fautive soit durement sanctionnée. Pour lui, personne n’est capable à ce jour de contrôler parfaitement les milliards de contenus qui transitent sur ces plateformes mondiales et tentaculaires. Rappelons que Facebook compte aujourd’hui plus de 2,8 milliards de membres. Pour Zuckerberg, le bon équilibre se trouverait dans la mise en place de systèmes efficaces, “proportionnels à la taille de la plateforme”, sous l’autorité d’un régulateur tiers. Une manière pour lui de garantir une certaine équité entre les entreprises, qu’il s’agisse de mastodontes internationaux ou de start-up.

LIRE AUSSI  #StopHateForProfit : Avec près de 220 millions d'abonnés, Kim Kardashian demande à ses fans de quitter Facebook et Instagram

Cela fait plusieurs années maintenant que la pression monte concernant ces géants qui peinent à mettre en place des processus de vérification et de modération suffisamment efficaces des contenus qui transitent par leurs plateformes. Beaucoup admettent que l’auto-régulation sur laquelle ces sites se sont beaucoup reposés par le passé a montré ses limites.

En France, la loi Avia, qui pourrait bientôt faire son retour sous une autre forme, prévoyait d’imposer aux plateformes une obligation de résultat sur le retrait des contenus illégaux identifiés. Le Conseil constitutionnel l’avait sévèrement rétorquée, la jugeant trop liberticide et contraire au principe de la liberté d’expression.

Avec Lesnumeriques

COMMENTAIRES

Je donne mon avis sur le sujet