Los medios sociales permiten que se alcen más voces, pero algunas personas los utilizan para hacer daño.
Por eso, contamos con Normas comunitarias en las que se especifica lo que se permite en nuestras aplicaciones y eliminamos todo aquello que infrinja estas normas. Si hay algún contenido que no infringe nuestras normas, pero que los verificadores de información independientes han indicado que es falso, reducimos su distribución para que no se haga viral. Asimismo, proporcionamos contexto sobre el contenido que ves para que puedas decidir lo que quieres leer y compartir, y en lo que puedes confiar.
Consultamos a expertos de todo el mundo para revisar y actualizar frecuentemente nuestras normas sobre lo que está permitido en Meta y lo que no.
Desde 2016, hemos multiplicado por cuatro nuestros equipos de seguridad y protección, que ahora cuentan con más de 40 000 personas.
Detectamos la mayoría del contenido que eliminamos antes de que nadie lo denuncie.
Impedimos que se creen millones de cuentas falsas a diario.
Te damos control sobre tu experiencia al permitirte bloquear, dejar de seguir u ocultar a personas y publicaciones.
Puedes moderar los comentarios de tus publicaciones y, en Instagram, te advertimos si vas a publicar algo que pueda ser ofensivo, para que recapacites.
Descubre cómo actualizamos nuestras Normas comunitarias, medimos los resultados, trabajamos con terceros y priorizamos el contenido que se someterá a revisión.
A día de hoy, trabajamos con más de 90 socios que abarcan más de 60 idiomas de todo el mundo para revisar el contenido que pueda ser falso.
Detectamos advertencias en las publicaciones que se han calificado como falsas para que puedas decidir qué contenido leer y compartir.
Si los verificadores de información externos etiquetan un contenido como falso, limitamos su difusión de forma significativa para que llegue a menos personas.
Desde que la Organización Mundial de la Salud declaró el COVID-19 una emergencia para la salud pública en todo el mundo, hemos estado trabajando para proporcionar información precisa de autoridades sanitarias a las personas y hemos tomado medidas estrictas para impedir la difusión de información errónea y contenido dañino.
Las personas pueden enviarnos denuncias sobre contenido o apelar determinadas decisiones si consideran que nos hemos equivocado al retirar algún contenido.
Este cuerpo global de expertos revisará de forma independiente las decisiones sobre contenido más difíciles de Meta, y el veredicto que tome será vinculante.
Todos los cuatrimestres publicamos un informe con métricas sobre nuestra eficacia a la hora de aplicar nuestras políticas de contenido.
Más información sobre nuestra estrategia