Facebook prend trop au sérieux la question du suicide et de la mutilation. Dans son rapport  2019 de Novembre marquant la 4e édition partant sur les standards de communauté, le réseau de Mark Zukerburg soutient qu’il a supprimé plus des millions de contenus issus de ses deux réseaux sociaux à savoir Facebook et Instagram.

Nous expliquons désormais les mesures que nous mettons en place pour le contenu lié au suicide ou à l’automutilation. Ce sujet est à la fois sensible et complexe, et nous travaillons avec des experts pour garantir la sécurité des personnes. Nous supprimons les contenus qui représentent ou encouragent le suicide ou l’automutilation, y compris certaines images explicites et représentations en temps réel qui, selon les experts, pourraient inciter d’autres personnes à adopter un comportement similaire” a expliqué  Guy Rosen, Vice-Président.

Sur facebook  plus de “deux millions de contenus au deuxième trimestre 2019, dont 96,1 % ont été détectés de façon proactive. Au troisième trimestre,  Facebook a  supprimé 2,5 millions de contenus dont 97,3 % ont été détectés de façon proactive.”

Concernant Instagram environ 835 000 contenus dont 77,8 % ont été détectés de façon proactive au deuxième trimestre 2019. Au troisième trimestre 2019,  environ 845 000 contenus ont été supprimés  dont 79,1 % ont été détectés de façon proactive.

Selon Guy Rosen  “Facebook affiche  un écran d’avertissement sur les contenus qui n’enfreignent pas nos règles mais qui peuvent être dérangeants pour certains, y compris les coupures cicatrisées ou d’autres images non explicites d’automutilation dans un contexte de guérison.

“Nous avons également renforcé nos règles en matière d’automutilation et amélioré notre technologie pour identifier et supprimer davantage de contenus en infraction” dit-il dans le rapport.