Los medios sociales hacen posible que se escuchen más voces, pero algunas personas los usan para hacer daño.
Es por ello que tenemos Normas comunitarias donde especificamos lo que está permitido en nuestras apps, y eliminamos todo aquello que no respete esas reglas. En el caso de contenido que no infrinja nuestras reglas pero que los verificadores de datos independientes hayan calificado como falso, reducimos su distribución para evitar que se viralice. También brindamos contexto sobre lo que ves, a fin de que puedas tomar tus propias decisiones respecto de lo que lees y compartes y en lo que confías.
Consultamos con especialistas de todo el mundo para revisar y actualizar periódicamente nuestras normas respecto de lo que se permite y lo que no se permite en Meta.
Desde 2016, aumentamos más de cuatro veces el tamaño de nuestros equipos de protección y seguridad, y hoy contamos con más de 40.000 personas.
Detectamos la mayoría del contenido que eliminamos antes de que alguien lo reporte.
Bloqueamos la creación de millones de cuentas falsas cada día.
Te damos control sobre tu experiencia mediante funciones que te permiten bloquear, dejar de seguir u ocultar personas y publicaciones.
Puedes moderar los comentarios que hacen las personas en tus publicaciones. En Instagram, te advertimos si estás por publicar algo que podría ser ofensivo a fin de que reconsideres si quieres seguir adelante.
Descubre cómo actualizamos nuestras Normas comunitarias, medimos los resultados, trabajamos en conjunto con otras partes y priorizamos el contenido que se someterá a revisión.
En la actualidad, trabajamos con más de 90 socios en más de 60 idiomas en todo el mundo para revisar contenido potencialmente falso.
Incluimos advertencias en las publicaciones que se calificaron como falsas a fin de que puedas decidir qué leer o compartir.
Cuando los verificadores de datos independientes etiquetan algún contenido como falso, reducimos su distribución de manera significativa para que lo vean menos personas.
Desde que la Organización Mundial de la Salud declaró que el brote de COVID-19 era una emergencia de salud pública mundial, trabajamos para conectar a las personas con información correcta de las autoridades sanitarias y adoptamos medidas para detener la difusión de información errónea y contenido dañino.
Las personas pueden reportar contenido o apelar ciertas decisiones si creen que cometimos un error respecto de contenido que hayamos eliminado.
Este ente global de especialistas revisa de manera independiente las decisiones más difíciles de Meta respecto del contenido, y sus decisiones son vinculantes.
Cada tres meses, publicamos un informe que proporciona métricas sobre nuestro desempeño respecto de la aplicación de las políticas de contenido.
Más información sobre nuestro enfoque