Skip to content
VEILIGHEID EN EXPRESSIE PROMOTEN

We zetten ons in om je stem te beschermen en om je veilig in contact te brengen en te laten delen.

Als we elkaar aan kunnen horen met tolerantie en respect, halen we daar allemaal voordelen uit.

Met sociale media worden meer stemmen gehoord, maar sommige mensen gebruiken het om schade te berokkenen.

Daarom hebben we richtlijnen voor de community die specificeren wat is toegestaan op onze apps. We verwijderen alles dat deze regels overtreedt. Voor inhoud die onze regels niet overtreden, maar die is beoordeeld als Onjuist door onafhankelijke feitencheckers, verminderen we de verspreiding om te voorkomen dat het viral wordt. We bieden ook context over wat je te zien krijgt, zodat je je eigen besluiten kunt nemen over wat je wilt lezen, vertrouwen en delen.


OVERTREDENDE INHOUD VINDEN EN VERWIJDEREN

We verwijderen haatdragend taalgebruik, intimidatie, bedreigingen met geweld en andere inhoud die anderen mogelijk de stem ontneemt of schade berokkent.

Richtlijnen voor de community

We raadplegen experts over de hele wereld om onze richtlijnen over wat wel en niet is toegestaan op Meta te beoordelen en regelmatig te bewerken.

Investeringen in veiligheid

Sinds 2016 hebben we onze veiligheids- en beveiligingsteams meer dan verviervoudigd naar 40.000 mensen.

Overtredende inhoud vinden

We detecteren de meeste inhoud die we verwijderen voordat deze door iemand aan ons wordt gerapporteerd.

Nepaccounts blokkeren

We blokkeren elke dag miljoenen nepaccounts voordat ze worden gemaakt.

Mensen de controle geven over wat ze te zien krijgen

We geven je controle over je ervaring door je de mogelijkheid te geven om mensen en berichten te blokkeren, niet meer te volgen of te verbergen.

Tools om pesten te voorkomen

Je kunt opmerkingen bij je berichten beheren. Op Instagram waarschuwen we je als je iets wilt gaan plaatsen dat mogelijk aanstootgevend is, zodat je je kunt bedenken.

a graphic illustration of a magnifying glass focusing on a chart

Hoe we onszelf verbeteren

Meer informatie over hoe we onze richtlijnen voor de community bijwerken, resultaten meten, samenwerken met anderen en inhoud prioriteit geven voor beoordeling.


DE VERSPREIDING VAN DESINFORMATIE VERMINDEREN

We werken eraan om de verspreiding van desinformatie te beperken en geven je context, zodat je zelf kunt beslissen over wat je wilt lezen, vertrouwen en delen.

Programma voor externe feitenchecks

Op dit moment werken we samen met meer dan 90 partners in meer dan 60 talen over de hele wereld om mogelijk onjuiste inhoud te beoordelen.

Desinformatie labelen

We voegen waarschuwingen toe aan berichten die worden beoordeeld als Onjuist zodat je kunt beslissen wat je wilt lezen of delen.

Voorkomen dat desinformatie viral wordt

Als externe feitencheckers inhoud als Onjuist labelen, verminderen we de verspreiding ervan aanzienlijk zodat minder mensen deze inhoud te zien krijgen.

a graphic illustration of a Facebook App post with a heart monitor and caution sign

Desinformatie met betrekking tot COVID-19 tegengaan

Vanaf het moment dat de Wereldgezondheidsorganisatie heeft verklaard dat COVID-19 een wereldwijde noodsituatie voor de volksgezondheid, werken we eraan mensen juiste informatie van gezondheidsorganisaties te laten zien en nemen we flinke stappen om te voorkomen dat desinformatie en schadelijke inhoud wordt verspreid.


ONSZELF VERANTWOORDELIJK STELLEN

We hebben het niet altijd bij het juiste eind. Daarom moedigen we mensen aan om bezwaar aan te tekenen tegen onze besluiten over inhoud. We houden ook onze voortgang bij in het veiliger maken van de apps van Meta en delen dit.

Beoordelingen en bezwaren van gebruikers

Mensen kunnen inhoud rapporteren aan ons of bezwaar aantekenen tegen bepaalde besluiten als ze vinden dat we iets onterecht hebben verwijderd.

Comité van toezicht

Dit wereldwijde orgaan van experts beoordeelt de moeilijkste besluiten over inhoud van Meta. Het besluit van het comité is bindend.

a graphic illustration of documents and a chart

Handhavingsrapport van de richtlijnen voor de community

We brengen elk kwartaal een rapport uit met statistieken over de handhaving van ons inhoudsbeleid.

IMPACT UITGELICHT

We detecteren meer dan 95% van het haatdragende taalgebruik proactief op Facebook en verwijderen dit voordat iemand het aan ons rapporteert.

Image of Meta logo

Meer nieuws van Meta volgen

Al het nieuws bekijken