Skip to content
MEINUNGSFREIHEIT UND SICHERHEIT

Unser Ziel ist es, dir einen sicheren Raum zu bieten, in dem du deine Meinung äußern, mit anderen kommunizieren und Inhalte teilen kannst.

Wenn wir offen aufeinander zugehen und einander mit Toleranz und Respekt begegnen, profitieren wir alle davon.

Dank sozialer Medien können mehr Menschen ihre Meinung frei äußern. Leider nutzen manche diese Möglichkeit aus, um schädliche Inhalte zu verbreiten.

Deshalb haben wir Gemeinschaftsstandards, die festlegen, was in unseren Apps erlaubt ist. Wir entfernen alle Inhalte, die gegen diese Regeln verstoßen. Bei Inhalten, die zwar nicht gegen unsere Regeln verstoßen, aber von unabhängigen Faktenprüfern als falsch eingestuft wurden, reduzieren wir deren Verbreitung, um zu verhindern, dass sie viral gehen. Wir bieten auch Kontext zu Inhalten, die dir angezeigt werden, damit du selbst entscheiden kannst, was du liest, wem du vertraust und was du teilst.


UNZULÄSSIGE INHALTE FINDEN UND ENTFERNEN

Wir entfernen Hassrede, Belästigungen, Gewaltandrohungen und andere Inhalte, die das Potenzial haben, andere zum Schweigen zu bringen oder Schaden anzurichten.

Gemeinschaftsstandards

Wir beraten uns mit Expert*innen weltweit, um unsere Gemeinschaftsstandards zu überprüfen und regelmäßig neu festzulegen, welche Inhalte auf Meta erlaubt bzw. nicht erlaubt sind.

Investitionen in die Sicherheit

Seit 2016 haben wir unsere Teams für Datenschutz und Sicherheit aufgestockt und die Zahl der Mitarbeiter*innen in diesem Bereich mehr als vervierfacht – auf über 40.000.

Aufspüren von unzulässigen Inhalten

Blockieren von Fake Accounts

Wir verhindern jeden Tag, dass Millionen von Fake Accounts eingerichtet werden.

Mehr Kontrolle über das, was du siehst

Wir geben dir die volle Kontrolle über dein Online-Erlebnis. Du kannst Personen und Beiträge blockieren, nicht mehr abonnieren oder verbergen.

Tools gegen Mobbing

Du kannst Kommentare zu deinen Beiträgen im Voraus überprüfen. Auf Instagram warnen wir dich, wenn du einen Beitrag verfasst, der anstößig sein könnte, damit du deine Formulierung noch einmal überdenken kannst.

a graphic illustration of a magnifying glass focusing on a chart

So werden wir immer besser

Erfahre, wie wir unsere Gemeinschaftsstandards aktualisieren, Ergebnisse auswerten, mit anderen zusammenarbeiten und Inhalte zur Überprüfung priorisieren.


FEHLINFORMATIONEN EINDÄMMEN

Wir arbeiten daran, die Verbreitung von Fehlinformationen einzudämmen und dir Kontext zur Verfügung zu stellen. So kannst du selbst entscheiden, was du liest, wem du vertraust und was du teilst.

Programm für externe Faktenprüfung

Wir arbeiten mit über 90 Partnern in mehr als 60 Sprachen zusammen, um potenzielle Fehlinformationen zu überprüfen.

Kennzeichnung von Fehlinformationen

Wir kennzeichnen Beiträge, die als falsch eingestuft wurden, damit du selbst entscheiden kannst, was du liest oder teilst.

Verbreitung von Fehlinformationen eindämmen

Wenn externe Faktenprüfer Inhalte als falsch einstufen, reduzieren wir die Verbreitung dieser Inhalte erheblich, damit weniger Menschen sie sehen.

a graphic illustration of a Facebook App post with a heart monitor and caution sign

Kampf gegen Fehlinformationen zu COVID-19

Seit die Weltgesundheitsorganisation COVID-19 zur weltweiten Gesundheitskrise erklärt hat, arbeiten wir daran, Menschen mit genauen Informationen von Gesundheitsbehörden zu versorgen. Außerdem gehen wir entschlossen gegen die Verbreitung von Fehlinformationen und schädlichen Inhalten vor.


UNSERE RECHENSCHAFTSPFLICHT

Auch wir machen nicht immer alles richtig. Deswegen haben Nutzer*innen die Möglichkeit, unsere Inhaltsentscheidungen anzufechten. Zudem verbessern wir die Sicherheit der Meta-Apps stetig und informieren regelmäßig über unsere Fortschritte in diesem Bereich.

Überprüfung durch Nutzer*innen und Einspruch

Nutzer*innen können Inhalte melden oder bestimmte Entscheidungen anfechten, wenn sie der Meinung sind, dass wir beim Entfernen von Inhalten einen Fehler gemacht haben.

Oversight Board

Dieses globale unabhängige Expert*innengremium führt eine unabhängige Überprüfung besonders schwieriger Inhaltsentscheidungen durch und trifft eine verbindliche Entscheidung.

a graphic illustration of documents and a chart

Bericht zur Durchsetzung der Gemeinschaftsstandards

Wir veröffentlichen in jedem Quartal einen Bericht mit Kennzahlen zur Durchsetzung unserer Content-Richtlinien.

MAẞNAHMEN ZEIGEN WIRKUNG

Wir erkennen proaktiv über 95 % der Hassrede, die wir auf Facebook entfernen, bevor jemand diese Inhalte meldet.

Image of Meta logo

Verfolge weitere News von Meta

Alle Meldungen ansehen