Dank sozialer Medien können mehr Menschen ihre Meinung frei äußern. Leider nutzen manche diese Möglichkeit aus, um schädliche Inhalte zu verbreiten.
Deshalb haben wir Gemeinschaftsstandards, die festlegen, was in unseren Apps erlaubt ist. Wir entfernen alle Inhalte, die gegen diese Regeln verstoßen. Bei Inhalten, die zwar nicht gegen unsere Regeln verstoßen, aber von unabhängigen Faktenprüfern als falsch eingestuft wurden, reduzieren wir deren Verbreitung, um zu verhindern, dass sie viral gehen. Wir bieten auch Kontext zu Inhalten, die dir angezeigt werden, damit du selbst entscheiden kannst, was du liest, wem du vertraust und was du teilst.
Wir beraten uns mit Expert*innen weltweit, um unsere Gemeinschaftsstandards zu überprüfen und regelmäßig neu festzulegen, welche Inhalte auf Meta erlaubt bzw. nicht erlaubt sind.
Seit 2016 haben wir unsere Teams für Datenschutz und Sicherheit aufgestockt und die Zahl der Mitarbeiter*innen in diesem Bereich mehr als vervierfacht – auf über 40.000.
Wir erkennen die meisten Inhalte, die wir entfernen, bevor jemand sie meldet.
Wir verhindern jeden Tag, dass Millionen von Fake Accounts eingerichtet werden.
Wir geben dir die volle Kontrolle über dein Online-Erlebnis. Du kannst Personen und Beiträge blockieren, nicht mehr abonnieren oder verbergen.
Du kannst Kommentare zu deinen Beiträgen im Voraus überprüfen. Auf Instagram warnen wir dich, wenn du einen Beitrag verfasst, der anstößig sein könnte, damit du deine Formulierung noch einmal überdenken kannst.
Erfahre, wie wir unsere Gemeinschaftsstandards aktualisieren, Ergebnisse auswerten, mit anderen zusammenarbeiten und Inhalte zur Überprüfung priorisieren.
Wir arbeiten mit über 90 Partnern in mehr als 60 Sprachen zusammen, um potenzielle Fehlinformationen zu überprüfen.
Wir kennzeichnen Beiträge, die als falsch eingestuft wurden, damit du selbst entscheiden kannst, was du liest oder teilst.
Wenn externe Faktenprüfer Inhalte als falsch einstufen, reduzieren wir die Verbreitung dieser Inhalte erheblich, damit weniger Menschen sie sehen.
Seit die Weltgesundheitsorganisation COVID-19 zur weltweiten Gesundheitskrise erklärt hat, arbeiten wir daran, Nutzer*innen mit genauen Informationen von Gesundheitsbehörden zu versorgen. Außerdem gehen wir entschlossen gegen die Verbreitung von Fehlinformationen und schädlichen Inhalten vor.
Nutzer*innen können Inhalte melden oder bestimmte Entscheidungen anfechten, wenn sie der Meinung sind, dass wir beim Entfernen von Inhalten einen Fehler gemacht haben.
Dieses globale unabhängige Expert*innengremium führt eine unabhängige Überprüfung besonders schwieriger Inhaltsentscheidungen durch und trifft eine verbindliche Entscheidung.
Wir veröffentlichen in jedem Quartal einen Bericht mit Kennzahlen zur Durchsetzung unserer Content-Richtlinien.
Weitere Informationen zu unserem Ansatz