Les médias sociaux ont permis à plus de voix de se faire entendre, mais certaines personnes se servent de ce privilège pour causer du tort.
C’est pourquoi nous avons mis en place les Normes de la communauté, qui précisent ce qui est autorisé sur nos applications, et nous supprimons tout ce qui enfreint ces règles. Lorsque du contenu qui n’enfreint pas nos règles est jugé comme faux par les vérificateurs de faits indépendants, nous réduisons sa diffusion pour empêcher qu’il ne devienne viral. Nous fournissons également du contexte sur ce que vous voyez afin que vous décidiez vous-même ce que vous lisez et partagez, et ce en quoi vous avez confiance.
Nous consultons des experts du monde entier pour examiner et mettre à jour régulièrement nos normes quant à ce qui est autorisé et ce qui ne l’est pas sur Meta.
Depuis 2016, nos équipes de sûreté et de sécurité ont plus que quadruplé et comptent maintenant plus de 40 000 employés.
Nous détectons la majorité du contenu que nous supprimons avant que quelqu’un nous le signale.
Nous empêchons des millions de faux comptes d’être créés chaque jour.
Nous vous donnons le contrôle sur vos interactions en vous permettant de bloquer ou de masquer des personnes ou des publications, ou de vous en désabonner.
Vous pouvez modérer les commentaires sur vos publications. De plus, sur Instagram, nous vous avertissons lorsque vous êtes sur le point de publier quelque chose qui pourrait être offensant. Vous pouvez donc réévaluer si vous le publiez ou non.
Découvrez comment nous mettons à jour nos Normes de la communauté, mesurons les résultats, collaborons avec les autres et accordons la priorité au contenu qui doit être examiné.
Aujourd’hui, nous collaborons avec plus de 90 partenaires qui couvrent plus de 60 langues partout dans le monde pour examiner le contenu potentiellement faux.
Nous incluons des avertissements sur les publications qui sont jugées comme fausses afin que vous puissiez décider de ce que vous lisez ou partagez.
Lorsque des vérificateurs de faits étiquettent du contenu comme étant faux, nous en réduisons considérablement la diffusion afin qu’il soit visible à moins de gens.
Depuis que l’Organisation mondiale de la Santé a reconnu la COVID-19 comme une urgence mondiale en matière de santé publique, nous avons travaillé à transmettre aux gens des renseignements exacts de la part des autorités de santé publique, ainsi qu’à prendre des mesures vigoureuses pour mettre fin à la propagation de la mésinformation et du contenu nuisible.
Les personnes peuvent nous signaler du contenu ou contester certaines décisions si elles pensent que nous avons fait une erreur en supprimant du contenu.
Ce groupe d’experts international examinera indépendamment les décisions de Meta les plus difficiles relatives au contenu, et ses décisions seront contraignantes.
Chaque trimestre, nous publions un rapport indiquant les mesures sur la façon dont nous appliquons nos règles concernant le contenu.
En savoir plus sur notre approche