ソーシャルメディアのおかげで、より多くの人が意見を表明できるようになりましたが、中にはソーシャルメディアを悪用しようとする人もいます。
そのためMetaは、弊社のアプリで許可される行動についてコミュニティ規定に定め、この規定に違反するコンテンツはすべて削除しています。Metaの規定に違反しないものの、独立した第三者ファクトチェッカーに虚偽と判定されたコンテンツについては、配信を減らして拡散を防止しています。またMetaは、利用者が何を閲覧し、信頼し、シェアするのかを自分で決定できるように、表示されるコンテンツについて背景を提供しています。
Metaは世界中の専門家と協議し、Metaで許可されることと許可されないことについての 規定 を審査し、定期的にアップデートしています。
2016年以降、Metaは安全とセキュリティを担当するチームの規模を4倍以上に拡大し、4万人を超える人材を配置しています。
Metaは、 削除するコンテンツの大半を 、利用者から報告される前に検出しています。
Metaは、毎日 数百万もの偽アカウント を、作成される前に阻止しています。
Metaは、利用者や投稿のブロック、フォロー解除、非表示の機能を提供して、 利用者が自分の体験を細かくコントロール できるようにしています。
利用者は自分の投稿につけられたコメントを管理できます。また、Instagramでは、他の人に不快感を与える可能性があるコンテンツを投稿しようとすると、再検討を促す 警告が表示 されます。
現在、Metaは世界中の60言語以上をカバーする 90以上のパートナー と協力し、虚偽の可能性があるコンテンツを審査しています。
第三者ファクトチェッカーがコンテンツに虚偽のラベルを付けた場合、Metaは その配信を大幅に減らし、 コンテンツを見る人が少なくなるようにします。
世界保健機関(WHO)が新型コロナウイルス感染症を公衆衛生上の世界的緊急事態と宣言して以来、Metaは利用者を保健当局からの正確な情報につなげるために尽力し、偽情報と有害なコンテンツの拡散防止に積極的に取り組んできました。
Metaの利用者は、 コンテンツを報告 したり、Metaがコンテンツを削除した判断が誤りと思われる場合はその決定に異議を申し立てたりできます。
この グローバルな専門家で構成される委員会 では、Metaのコンテンツに関する最も難しい決定を独立して審査します。委員会の判断には拘束力があります。