Skip to content

Informations sur nos avancées en matière de confidentialité

Depuis 2019, Meta remanie son système de confidentialité, avec 5,5 milliards de dollars investis dans un programme rigoureux portant sur les personnes, les processus et la technologie, pensé pour identifier et maîtriser les risques de confidentialité au plus tôt et pour intégrer la confidentialité à nos produits dès leur conception.

01. NOTRE DÉMARCHE

Dans toute l’entreprise, les effectifs de nos équipes produits, ingénierie et opérations spécialisés dans la confidentialité sont passés de quelques centaines en 2019 à plus de 3 000 à la fin de l’année 2023.

Photo of Chief Privacy Officer of Product Michel Protti on Meta’s Menlo Park campus

« À l’été 2019, nous avons compris que nous avions besoin d’investir bien plus dans la confidentialité. Meta a connu des changements majeurs, qui ont profondément touché nos collaborateur·ices, nos processus et notre infrastructure technique, ainsi que la supervision et la responsabilité. Nous continuons par ailleurs d’investir dans la protection des données personnelles à mesure qu’évoluent les systèmes, la technologie et les attentes. »


— Michel Protti, directeur de la confidentialité pour les produits

Gouvernance

Nos structures internes de gouvernance sous-tendent notre travail sur la confidentialité. Elles intègrent les normes de confidentialité et d’utilisation des données dans l’ensemble des activités de l’entreprise.

À mesure que se poursuit l’intégration de la confidentialité dans toute notre entreprise, nous mettons en place des équipes dédiées à la confidentialité au sein des groupes de produits. Elles ont pour mission de renforcer la sensibilisation aux questions de confidentialité en offrant une expertise spécifique à chaque groupe de produits. Ces équipes sont le premier rempart assurant le respect de nos responsabilités en matière de confidentialité sur l’ensemble de nos produits.

Dirigée par Michel Protti, directeur de la confidentialité pour les produits, l’équipe Confidentialité et pratiques relatives aux données de Meta est composée d’une douzaine de sous-équipes, aux compétences aussi bien techniques que non techniques, qui se consacrent aux stratégies de confidentialité et aident le reste de l’entreprise à y adhérer.

Cette équipe est au cœur de nos efforts pour garantir un programme de confidentialité complet. Elle a pour mission d’instaurer au sein des technologies Meta des pratiques responsables en matière de données. Pour ce faire, elle veille à ce que les internautes comprennent la manière dont Meta utilise leurs données et aient confiance dans le fait que nos produits utilisent leurs données de manière responsable.

Cette équipe est loin d’être la seule organisation responsable de la confidentialité au sein de l’entreprise. Des milliers de personnes chez Meta, occupant différents postes et évoluant dans différentes organisations, s’emploient à intégrer la confidentialité dans chacun des aspects que couvrent les activités de notre entreprise, y compris la politique publique et les questions juridiques. Mettre en œuvre la confidentialité de manière adéquate est une mission profondément transversale, et nous estimons que tout le monde chez Meta est responsable de cet effort.

Dirigée par Erin Egan, vice-présidente et responsable de la politique de confidentialité, l’équipe Confidentialité et utilisation des données est chargée d’affirmer et de présenter notre engagement dans les débats publics organisés à l’échelle mondiale sur le thème de la confidentialité, y compris au sujet des nouvelles structures réglementaires. Elle veille à ce que les recommandations des gouvernements et des spécialistes du monde entier soient prises en compte dans la conception de nos produits et les pratiques d’utilisation des données.

Dans cette optique, notre équipe Politique de confidentialité et d’utilisation des données a recours à ces groupes par l’intermédiaire de mécanismes de consultation, dont :

  • Des groupes consultatifs sur la confidentialité qui sont reconnus dans leur région ou qui ont une expertise spécialisée sur des sujets comme les publicités ou la réalité étendue (XR)
  • Des ateliers (y compris des dialogues sur les données) et d’autres réunions sur des questions complexes relatives à la confidentialité
  • Des consultations permanentes avec des spécialistes dans le cadre de notre processus de développement de produits ; consultations qui permettent également de façonner notre approche à long terme en matière de confidentialité
  • Le financement de la recherche menée par des spécialistes en matière de confidentialité et de la sensibilisation dans ce domaine, y compris nos subventions pour la recherche sur la confidentialité et la responsabilité de la XR
  • Le financement de spécialistes pour des consultations approfondies sur la façon dont nous pouvons améliorer certains aspects de notre programme de confidentialité
  • Le soutien à des organisations intersectorielles, telles que Trust, Transparency and Control Labs (TTC Labs) et Open Loop, qui mettent au point des solutions innovantes favorisant le développement responsable des technologies

De plus, nous organisons régulièrement une série de tables rondes, ainsi qu’une rencontre annuelle réunissant des spécialistes internationaux, reconnu·es dans le domaine de la confidentialité, afin d’aborder un certain nombre de sujets urgents relatifs à la confidentialité.

L’équipe Confidentialité et lois intervient dans la conception et l’application continue de notre programme. Elle apporte également un avis sur les exigences légales inhérentes à notre processus d’examen de la confidentialité.

Le Comité confidentialité est un comité indépendant qui travaille sous l’égide de notre Conseil d’administration et qui se réunit tous les trimestres pour veiller au respect de nos engagements vis-à-vis de la confidentialité. Ce Comité est composé de directeurs et directrices indépendant·es avec une longue expérience dans des fonctions de surveillance similaires. Au moins une fois par trimestre, il reçoit des rapports concernant entre autres le paysage de la réglementation internationale, l’avancement de notre programme de confidentialité et le statut de l’évaluation indépendante tierce de notre programme de confidentialité.

L’audit interne permet de confirmer de façon indépendante l’état général de notre programme de confidentialité et sa structure de contrôle sous-jacente.

Apprentissage de la confidentialité

Pour garantir que chaque personne comprenne son rôle de garante de la confidentialité de notre entreprise, Meta organise des formations continues sur les questions de confidentialité qui comprennent des campagnes de sensibilisation en interne et des formations.

Notre formation sur les questions de confidentialité est un élément central de notre démarche pédagogique dans ce domaine. Elle reprend les éléments constitutifs de la confidentialité et est conçue pour que chaque employé·e de Meta puisse reconnaître les risques liés à la confidentialité et les prendre en compte. Qu’il s’agisse de notre formation annuelle ou de nos cours sur la confidentialité pour les nouvelles recrues et les nouvel·les travailleur·ses occasionnel·les, la version en ligne propose des exemples sous forme de scénarios reprenant les notions de confidentialité inhérentes à nos activités commerciales et inclut un test permettant d’évaluer la compréhension des concepts de confidentialité concernés. Ces formations sont actualisées et déployées chaque année afin de nous assurer que toute information pertinente est incluse avec les concepts clés.

En parallèle de notre formation élémentaire obligatoire sur la confidentialité, nous récapitulons également dans un catalogue toutes les formations mises en place par Meta dans ce domaine qui sont pertinentes pour les personnes travaillant à des postes spécifiques.

Nous assurons également l’apprentissage de la confidentialité par l’envoi régulier de communications à notre personnel. En plus de nos formations sur la confidentialité, nous fournissons régulièrement du contenu sur ce sujet par l’intermédiaire de nos réseaux internes de communication, des actualités transmises par les responsables de la confidentialité, des sessions de questions/réponses en interne et d’une Semaine de la confidentialité.

Pendant notre Semaine de la confidentialité, nous mettons à l’honneur la confidentialité dans toute l’entreprise et donnons la parole à des intervenant·es internes et externes. Nous mettons également en avant les concepts de confidentialité clés et les priorités dans ce domaine à travers des contenus et des évènements intéressants.

Lorsque nous participons à des évènements externes sur le thème de la confidentialité, comme la Journée de la protection des données ou notre rencontre annuelle des spécialistes de la confidentialité, nous renforçons la sensibilisation interne et encourageons les interactions sur les canaux internes pour veiller à ce que tout le monde ait la possibilité de participer et d’en savoir plus sur la confidentialité.

Processus de préparation réglementaire

Nous disposons d’une équipe dédiée dont la mission est de garantir notre conformité aux réglementations internationales relatives à la confidentialité et à l’utilisation des données. Notre processus de préparation réglementaire s’articule autour de thèmes clés de la confidentialité, ou « domaines de confidentialité » (par exemple, la jeunesse, les données sensibles, le consentement) pour garantir une prise en charge exhaustive des exigences de confidentialité.

Identification et évaluation des risques de confidentialité

Nous avons créé notre propre programme de gestion des risques de confidentialité afin d’identifier et d’évaluer les risques liés à notre collecte, notre utilisation, notre partage et notre stockage des données des utilisateur·ices. Nous suivons ce processus pour repérer les aspects à risque, améliorer notre programme de confidentialité et nous préparer à de futures initiatives ayant trait à la conformité.

Dispositifs de protection et contrôles

Nous avons mis en place des dispositifs, notamment dans le cadre des processus et contrôles techniques, pour neutraliser les risques de confidentialité. En ce sens, nous réalisons des évaluations internes portant sur la conception et l’efficacité de ces dispositifs afin d’atténuer les risques de confidentialité.

Gestion des problèmes

Nous avons établi une fonction centralisée de gestion des problèmes pour faciliter l’auto-identification et la neutralisation des problèmes liés à la confidentialité. Ce processus recouvre tout le cycle de vie de la gestion des problèmes de confidentialité : ouverture, tri, planification de la neutralisation et clôture avec preuve.

Red team chargée de la confidentialité

Nous avons créé une red team dont le rôle est de tester, de manière proactive, nos processus et technologies afin d’identifier les risques potentiels en matière de confidentialité. La red team joue le rôle d’un acteur externe ou interne qui tente de contourner nos contrôles et dispositifs de confidentialité, ce qui nous aide à identifier proactivement les points à améliorer dans notre environnement de contrôle.

Gestion des incidents

Quelle que soit la solidité de nos mesures de limitation et de protection, nous avons également besoin d’un processus permettant (1) d’identifier les évènements susceptibles de porter atteinte à la confidentialité, à l’intégrité ou à la disponibilité des données dont Meta est responsable, (2) d’enquêter sur ces situations et (3) de prendre toutes les mesures nécessaires pour combler les failles identifiées.

Nous appliquons notre programme de gestion des incidents partout dans le monde afin de superviser nos processus d’identification, d’évaluation, de limitation et de résolution des incidents de confidentialité. Si l’équipe Confidentialité et pratiques relatives aux données est responsable du processus de gestion des incidents, chez Meta, tout le monde est garant de la confidentialité. Les équipes de toute l’entreprise, et notamment les équipes juridiques et produit, jouent un rôle essentiel. Nous continuons à investir du temps, des ressources et de l’énergie pour créer un programme à plusieurs niveaux, qui évolue et se bonifie en permanence, et nous mettons l’accent sur les trois éléments suivants de notre approche.

Nous adoptons une approche multicouche pour protéger les personnes et leurs informations. Cela passe par des dispositifs pensés pour intercepter proactivement les bugs avant qu’ils ne posent problème. Compte tenu de l’échelle à laquelle nous opérons, nous avons investi massivement dans le développement et le déploiement d’une grande variété d’outils automatisés qui nous aident à identifier et à résoudre les incidents de confidentialité potentiels aussi facilement et rapidement que possible. Ces systèmes automatisés sont conçus pour détecter les incidents en temps réel et favoriser une réponse rapide.

Bien entendu, quelle que soit la capacité de nos systèmes automatisés, la surveillance et la diligence de nos employé·es jouent toujours un rôle essentiel dans l’identification et la résolution proactives des incidents. Nos équipes d’ingénierie vérifient régulièrement nos systèmes afin d’identifier et de résoudre les incidents avant qu’ils ne touchent les internautes.

Depuis 2011, nous exploitons un programme de prime au bug dans le cadre duquel des chercheur·ses externes nous aident à améliorer la sécurité et la confidentialité de nos produits et systèmes en nous signalant les vulnérabilités de sécurité potentielles. Ce programme nous aide à élargir nos efforts de détection et à résoudre les problèmes plus rapidement pour mieux protéger notre communauté. Les primes accordées aux participant·es éligibles favorisent ainsi la réalisation de recherches de grande qualité en matière de sécurité.

Au cours des 10 dernières années, plus de 50 000 chercheur·ses ont rejoint ce programme, et près de 1 500 personnes originaires de 107 pays différents ont déjà bénéficié de primes.

Bien que nous ayons adopté plusieurs mesures de protection contre les incidents de confidentialité, tels que les accès non autorisés aux données, nous ne sommes pas à l’abri d’un incident. Ceci étant, nous estimons que la transparence dont nous pouvons faire preuve permettra de rétablir la confiance dans nos produits et nos processus au fil du temps. De ce fait, en plus de réparer nos erreurs et en tirer les leçons, notre programme de gestion des incidents prévoit des étapes permettant d’informer les internautes lorsque cela s’avère nécessaire, par l’intermédiaire de publications dans notre Newsroom ou notre blog Privacy Matters au sujet de problèmes ayant un impact sur notre communauté, mais aussi la collaboration avec la police ou d’autres autorités pour résoudre les incidents que nous identifions.

Surveillance par des tiers

Les tiers sont des partenaires externes qui travaillent avec Meta, mais qui ne sont ni détenus ni dirigés par Meta. Ces tiers appartiennent généralement à deux catégories principales : les prestataires de services pour Meta (proposant une assistance à la création de site Web, par exemple) et les personnes qui développent leurs activités autour de notre plateforme (comme les développeur·ses d’applications ou d’API). Pour limiter les risques de confidentialité inhérents aux tiers qui ont accès aux informations personnelles, nous avons élaboré un programme tiers de supervision et de gestion permettant de superviser les risques de confidentialité induits par les tiers et de mettre en œuvre les dispositifs de protection appropriés.

Nous avons également créé un processus tiers d’évaluation de la confidentialité dédié aux prestataires de services afin d’évaluer et de limiter les risques. En accord avec notre processus, ces prestataires de services sont également liés par des contrats prévoyant des protections de la confidentialité. Leur profil de risque détermine la façon dont ils et elles sont surveillé·es, réévalué·es, et le cas échéant, les sanctions à appliquer en cas de manquement (résiliation du contrat, par exemple).

Nous avons conçu un processus officiel de mise en application de nos exigences et d’exclusion des tiers qui manquent à leurs obligations en matière de sécurité ou de confidentialité. Sont inclus les mécanismes standard et techniques qui encouragent la mise en place de meilleures pratiques chez les développeur·ses sur l’ensemble de nos plateformes, et notamment :

  • Contrôle de l’utilisation des données (CUD) : procédures et infrastructures qui permettent de veiller à ce que les développeur·ses tiers·ces se soumettent au Contrôle de l’utilisation des données (CUD) annuel au cours duquel ils et elles certifient l’objectif et l’utilisation de chaque type d’information auquel ils et elles demandent accès ou ont déjà accès. Nous sommes ainsi également en mesure de vérifier que chaque objectif et utilisation est conforme aux conditions et politiques en vigueur. Nous avons mis en place de nouvelles questions et amélioré la logique pour avoir des réponses plus précises et renforcer la compréhension pour les développeur·ses. Nous avons également créé un système d’outils permettant de centraliser les communications et les demandes d’informations supplémentaires des développeur·ses.
  • Suivi de la conformité auprès des développeur·ses : nous avons mis en place des dispositifs techniques et administratifs pour surveiller de façon continue et régulière la conformité des développeur·ses à l’égard des conditions générales de notre plateforme. En cas d’infraction, nous prenons des mesures coercitives standard qui, entre autres, tiennent compte de la gravité, de la nature et de l’impact de l’infraction, du comportement malveillant du ou de la développeur·se ou de son historique d’infractions, mais aussi des lois en vigueur, pour déterminer la réponse la plus appropriée.
  • Normes de sécurité des données : nous avons aussi créé des principes de sécurité des données sur la base de normes propres aux développeur·ses de façon à favoriser l’adoption de pratiques plus sécurisées sur notre plateforme et, plus largement, dans l’écosystème de développement.
  • Centre de gestion de la confidentialité des développeur·ses : nous avons lancé le Centre de gestion de la confidentialité des développeur·ses, une plateforme centrale sur le site Meta for Developers qui rassemble les ressources destinées aux développeur·ses tiers·ces sur la confidentialité et la sécurité des données, les conditions générales de la plateforme et les mécanismes de surveillance avec lesquels ils et elles interagissent tels que le Contrôle app, le renouvellement du contrôle app, le CUD et la nouvelle Évaluation de la protection des données (DPA).

Utilisation détournée de données externes

Notre équipe missionnée pour contrôler l’utilisation détournée des données externes se charge de détecter, d’analyser et de bloquer les comportements associés au scraping. Le scraping est la collecte automatisée, autorisée ou non, de données depuis un site Web ou une application. Le recours à l’automatisation pour accéder à des données sur les plateformes de Meta ou les collecter sans notre autorisation constitue une infraction à nos conditions de service.

Nous investissons continuellement dans l’infrastructure et les outils afin qu’il soit plus difficile pour les scrapers de collecter des données à partir de nos services et d’en tirer profit le cas échéant. Des exemples de ces investissements sont les plafonds et les limites de données. Les plafonds limitent le nombre de fois qu’une personne peut interagir avec nos produits dans un laps de temps donné, tandis que les limites de données empêchent d’obtenir plus de données qu’il n’en faut pour utiliser nos produits normalement.

Nous utilisons des identifiants d’utilisateur·ices et de contenu générés en interne, après avoir constaté que le scraping non autorisé impliquait souvent de deviner ou d’acheter ces identifiants. Nous utilisons par ailleurs de nouveaux identifiants pseudonymisés qui permettent de prévenir le scraping non autorisé de données, en faisant en sorte que deviner, se connecter et accéder de manière répétée aux données soit plus compliqué pour les scrapers.

Chaque jour, nous bloquons des milliards d’actions de scraping non autorisées sur Facebook et Instagram, et nous prenons plusieurs mesures contre les personnes s’y adonnant, notamment la désactivation des comptes et la demande de suppression des données scrapées auprès des entreprises qui les hébergent.

Examen de la confidentialité

Chez Meta, le processus d’examen de la confidentialité est au cœur du développement de nouveaux produits et services, de nouvelles pratiques, et de leur mise à jour. Grâce à ce processus, nous évaluons comment les données seront utilisées et protégées dans les produits, services et pratiques nouveaux ou mis à jour. Chaque mois, nous examinons en moyenne 1 200 produits, fonctionnalités et pratiques relatives aux données au sein de l’entreprise, avant leur mise en production, en vue d’évaluer et d’atténuer les risques en matière de confidentialité.

Dans le cadre de ce processus, une équipe transversale composée de spécialistes de la confidentialité évalue les risques potentiels de violation de la confidentialité liés à un projet. Elle détermine ensuite si des changements doivent être mis en œuvre avant le lancement du projet afin d’atténuer ces risques. Si l’évaluation des risques ou les mesures d’atténuation proposées pour un produit font l’objet d’un désaccord, les équipes doivent alors solliciter les personnes responsables des produits et des politiques, et éventuellement le PDG, afin obtenir un avis plus détaillé et de prendre une décision finale.

Le développement de nos produits, services et pratiques, nouveaux et modifiés, par l’intermédiaire du processus d’examen de la confidentialité, est guidé par nos attentes internes en matière de confidentialité, qui couvrent notamment les aspects suivants :

  1. Restriction de l’objectif : traiter les données uniquement dans le cadre d’un objectif limité et clairement défini qui offre une valeur ajoutée aux personnes qui utilisent nos technologies.
  2. Minimisation des données : recueillir et créer le volume de données strictement nécessaire à la réalisation d’objectifs clairement définis.
  3. Conservation des données : conserver les données uniquement le temps nécessaire à la réalisation d’objectifs clairement définis.
  4. Protection contre l’utilisation détournée de données externes : protéger les données contre l’utilisation abusive, la perte accidentelle et l’accès par des tiers non autorisés.
  5. Transparence et contrôle : communiquer de façon proactive, claire et honnête sur le comportement des produits et les pratiques de gestion des données, et permettre aux internautes de contrôler nos pratiques, dès que cela s’avère possible et approprié.
  6. Accès aux données et gestion : permettre aux internautes d’accéder aux données que nous avons recueillies ou créées à leur sujet, et de les gérer.
  7. Équité : développer des produits qui identifient et limitent les risques pour les populations vulnérables, et veiller à produire de la valeur ajoutée pour les internautes.
  8. Responsabilité : garantir l’application de processus internes et de contrôles techniques dans le cadre de nos décisions, produits et pratiques.

Nous avons également investi dans les examens de vérification et dans une plateforme centralisée afin de soutenir le processus d’examen de la confidentialité à grande échelle :

  • Plateforme centralisée : nous avons investi dans une plateforme centralisée utilisée tout au long du processus d’examen de la confidentialité, qui permet à nos équipes de gérer tous les aspects de leurs évaluations, exigences et décisions. Il s’agit d’un répertoire centralisé où les équipes peuvent gérer tous les aspects du processus d’examen de la confidentialité, mais aussi rechercher et gérer les engagements que l’entreprise a pris en externe sur les questions de confidentialité.
  • Examens de vérification : les examens de confidentialité incluent une phase technique qui vise à vérifier et documenter la mise en œuvre technique des exigences de confidentialité et des mesures d’atténuation proposées, ainsi que des engagements qui s’appliquent à chaque lancement. Nous avons conçu un examen de mise en œuvre technique qui permet d’examiner, de vérifier et de documenter la mise en œuvre technique des engagements de confidentialité et des mesures de réduction des risques. Ce processus, intégré aux outils que nous utilisons pour développer des logiciels chez Meta, permet de vérifier que les engagements pris lors de l’examen de la confidentialité ont bien été respectés.
02. LA CONFIDENTIALITÉ DANS NOS PRODUITS

Nous investissons de manière continue dans des innovations produit proposant une confidentialité et des contrôles avantageux pour nos utilisateur·ices.

Komal Lahiri, VP Privacy Review

« Chaque jour, des milliards de personnes nous confient leur données confidentielles. L’examen de confidentialité est indispensable pour honorer cette confiance et garantit une innovation responsable. Notre principal objectif est de montrer aux utilisateur·ices et régulateurs que nous respectons nos obligations en matière de confidentialité et que nous le faisons dans les règles. »


— Komal Lahiri, vice-présidente Examen de la confidentialité

La confidentialité de nos utilisateur·ices est au centre de nos pratiques en matière de création et de mise à jour continue de nos produits. Nous tenons compte de cette confidentialité en développant des paramètres et des contrôles par défaut qui permettent aux utilisateur·ices de configurer facilement le niveau de confidentialité de leur choix. La confidentialité est également une pierre angulaire du développement de nouveaux produits.

Depuis 2016, Messenger propose l’option de chiffrement de bout en bout à ses utilisateur·ices. En 2023, nous avons commencé à déployer le chiffrement de bout en bout par défaut pour l’ensemble des discussions et appels personnels sur Messenger et Facebook.

Ce processus a duré des années, car nous avions à cœur de bien faire les choses. Nos ingénieur·ses, cryptographes, concepteur·ices, spécialistes des politiques et gestionnaires de produits ont travaillé sans relâche pour reconstruire de zéro les fonctionnalités Messenger. Le déploiement du chiffrement de bout en bout sur Messenger a exigé une refonte radicale de plusieurs aspects des protocoles de l’application afin de renforcer la confidentialité, la sécurité et la sûreté tout en préservant les fonctionnalités à l’origine du succès de Messenger. Notre approche s’est basée sur les enseignements que nous avons tirés des conversations secrètes sur WhatsApp et Messenger, avant de les appliquer aux problèmes les plus épineux, tels que l’utilisation de plusieurs appareils, la prise en charge des fonctionnalités, l’historique des messages et l’assistance Web. Tout au long de ce processus, nous avons ajouté de nouvelles fonctionnalités de confidentialité, de sécurité et de contrôle, comme le verrouillage des applications et les paramètres de réception pour que les internautes puissent choisir les personnes autorisées à leur envoyer un message. Nous avons également amélioré les fonctionnalités de sécurité existantes, comme le signalement, le blocage et les invitations par message.

Le chiffrement de bout en bout vise avant tout à protéger les communications des internautes pour leur permettre de communiquer en toute sécurité avec leurs ami·es et leurs proches. Nous avons étroitement collaboré en externe avec des spécialistes, des universitaires, des militant·es et des gouvernements pour identifier les risques et prendre des mesures d’atténuation afin de faire rimer confidentialité avec sécurité. Nous avons commandé une évaluation indépendante de l’impact sur les droits humains et publié un livre blanc qui explique en détail l’approche de Meta concernant les messages privés sur Messenger et Instagram.

Les lunettes intelligentes Ray-Ban Meta vous permettent de prendre une photo ou d’enregistrer une courte vidéo de votre point de vue unique, d’écouter de la musique ou de passer un appel, ainsi que d’utiliser nos fonctionnalités intelligentes à mesure que nous les déployons. Le tout sans avoir à sortir votre téléphone. Les lunettes intelligentes Ray-Ban Meta sont équipées d’une caméra, d’un système audio et d’un microphone de qualité supérieure, ainsi que de nouvelles fonctionnalités telles que le stream en direct et l’assistant Meta IA intégré. Résultat : vous n’avez plus besoin de choisir entre profiter du moment présent et l’immortaliser.

Les lunettes intelligentes Ray-Ban Meta ont été conçues dans le respect de la confidentialité. Elles témoignent clairement de notre engagement envers l’innovation responsable et la confidentialité intégrée. Nous avons pris en compte les retours de nos parties prenantes, collectés dès le lancement des Ray-Ban Stories, et les avons appliqués de façon concrète.

  • La LED de capture est désormais plus visible et arbore un motif voyant, statique ou clignotant, pour les enregistrements plus longs (vidéo, stream en direct).
  • Nous avons également introduit une fonctionnalité de détection des obstructions pour empêcher les utilisateur·ices d’enregistrer alors que la LED de capture est recouverte. Si la LED de capture est entièrement obstruée, l’utilisateur·ice ne pourra pas utiliser la caméra, et il lui sera demandé de retirer l’obstacle.
  • L’application Meta View associée continue d’offrir un accès simplifié aux paramètres de confidentialité pour gérer le partage d’informations et de données supplémentaires avec Meta.

Nous avons lancé de nouvelles expériences d’IA générative, y compris des stickers, l’édition d’images avec l’IA, notre assistant Meta AI et Studio IA, avec lequel les utilisateur·ices peuvent créer leur propre IA personnalisée. Nous avons intégré d’importantes mesures relatives à la confidentialité lors de la conception de ces nouvelles fonctionnalités d’IA générative prometteuses et avons développé un Guide de la confidentialité de l’IA générative ainsi que d’autres ressources en lien avec la transparence pour aider les internautes à comprendre la conception de nos modèles d’IA, le fonctionnement des fonctionnalités d’IA et les contrôles et droits qu’elles proposent en matière de confidentialité.

L’année passée, nous avons mis à jour notre outil Pourquoi est-ce que je vois ça ?, qui explique aux internautes pourquoi ils et elles voient certaines publicités sur leur fil Facebook et Instagram. Notre travail a notamment consisté à regrouper les informations par thèmes pour expliquer comment l’activité sur et en dehors de nos technologies alimente les modèles de machine learning utilisés pour choisir et diffuser des publicités : par exemple, le fait d’aimer une publication sur la Page Facebook d’un·e ami·e ou de consulter un site Web spécialisé dans le sport. Nous avons également ajouté des exemples et illustrations qui expliquent comment nos modèles de machine learning font le lien entre différents thèmes pour montrer des publicités pertinentes. En outre, nous facilitons le contrôle des publicités pour les utilisateur·ices en leur permettant d’accéder à leurs préférences publicitaires à partir de nouvelles pages dans l’outil Pourquoi est-ce que je vois ça ?.

Nous avons créé la Bibliothèque de contenus Meta (MCL) et développé une API. Ces nouveaux outils permettent aux chercheur·ses qualifié·es d’accéder à davantage de contenu public sur Facebook et Instagram, dans le respect de la confidentialité.

Ils donnent aux chercheur·ses accès à des données publiques en quasi temps réel, y compris du contenu issu de Pages, Groupes et Évènements Facebook, ainsi que de Creators et comptes business sur Instagram. Des détails sont également disponibles à propos du contenu, comme le nombre de réactions, de partages, de commentaires et, pour la première fois, de vues par publication. Les chercheur·ses peuvent rechercher, explorer et filtrer ce contenu sur une interface d’utilisation (UI) graphique ou via l’API programmatique.

Nous sommes partenaires de l’Inter-University Consortium for Political and Social Research (ICPSR) dans le cadre de l’initiative Social Media Archive (SOMAR) de l’université du Michigan. Le but est de partager des données publiques de nos plateformes, où l’accès à des données restreintes est étroitement surveillé et soumis à l’acceptation de nos conditions strictes d’utilisation et de confidentialité des données par les utilisateur·ices agréé·es.

Les efforts que nous déployons pour communiquer en toute transparence nous amènent à faire appel à des ressources éducatives externes pour expliquer clairement aux internautes nos pratiques, à les sensibiliser davantage, ainsi qu’à veiller à ce que les informations soient facile d’accès.

  • Notre Politique de confidentialité détaille la façon dont nous collectons, utilisons, partageons, conservons et transférons les informations, ainsi que les droits et contrôles dont disposent les internautes en matière de confidentialité.
  • Le Centre de confidentialité est un espace où les internautes peuvent mieux comprendre nos pratiques afin de prendre des décisions éclairées concernant la confidentialité, d’une manière qui leur convient. Grâce à la formation et à l’accès aux contrôles de confidentialité et de sécurité, nous répondons à certaines des préoccupations les plus courantes en matière de confidentialité des milliards de personnes qui passent du temps avec nous chaque jour. Le Centre de confidentialité comporte plusieurs modules, dont le partage, la collecte, l’utilisation, la sécurité, la jeunesse, l’IA générative et les publicités, qui permettent d’associer directement un problème ou une préoccupation aux contrôles de confidentialité et de sécurité pertinents que nous avons mis en place dans nos applications et services au fil des années.
  • La section Données et confidentialité de notre Newsroom propose des informations supplémentaires sur la façon dont nous abordons la confidentialité dans le contexte de fonctionnalités ou de problèmes spécifiques.

Afin de proposer toujours plus de transparence et de contrôle aux internautes, nous avons développé un certain nombre d’outils dédiés à la confidentialité qui leur permettent de comprendre ce qu’ils et elles partagent et la manière dont leurs informations sont utilisées, notamment :

  • L’Assistance confidentialité guide les internautes lors de la configuration de paramètres importants de confidentialité et de sécurité sur Facebook pour les aider à renforcer la sécurité de leur compte et à choisir les personnes qui peuvent accéder au contenu qu’ils et elles partagent et la manière dont leurs informations sont utilisées. L’Assistance confidentialité propose cinq thèmes différents pour aider les personnes à décider qui peut voir ce qu’elles partagent, à contrôler la façon dont leurs informations sont utilisées et à renforcer la sécurité de leur compte.
    • Qui peut voir ce que vous partagez aide les internautes à décider qui peut voir les informations de leur profil, comme leur numéro de téléphone et leur adresse e-mail, ainsi que leurs publications.
    • Comment protéger votre compte aide les utilisateur·ices à renforcer la sécurité de leur compte en choisissant un mot de passe plus fort et en activant l’authentification à deux facteurs.
    • Comment les autres peuvent vous trouver sur Facebook laisse les internautes choisir les moyens par lesquels d’autres personnes peuvent les rechercher sur Facebook et leur permet de choisir qui peut leur envoyer une invitation.
    • Paramètres de vos données sur Facebook permet aux personnes de vérifier les informations partagées avec les applications auxquelles elles se connectent via Facebook. Elles peuvent également supprimer les applications qu’elles n’utilisent plus.
    • Vos préférences publicitaires sur Facebook fournit des informations sur le fonctionnement des publicités dans nos produits, permet aux utilisateur·ices de choisir les informations de leur profil que les annonceurs peuvent utiliser pour leur montrer des publicités et leur permet de décider qui peut voir leurs interactions sociales avec les publicités, par exemple les mentions J’aime.
  • Activité en dehors des technologies Meta offre un résumé des activités partagées par les entreprises et organisations à propos des interactions des internautes, par exemple les consultations des applications ou sites Web, et permet aux internautes de dissocier leurs activités passées de leur compte.
  • Gérer l’activité permet aux internautes de gérer simultanément plusieurs publications avec des filtres afin de trier et trouver du contenu, comme des publications avec des personnes en particulier ou sur une période spécifique. Cet outil comprend aussi une commande de suppression qui offre aux internautes une solution plus définitive en leur permettant de placer simultanément plusieurs publications anciennes dans la corbeille. Après 30 jours, les publications placées dans la corbeille sont supprimées, sauf si l’utilisateur·ice décide de les supprimer ou de les restaurer manuellement avant l’expiration de ce délai.
03. Investissements techniques en faveur de la confidentialité

Nous investissons dans des innovations technologiques qui offrent à nos utilisateur·ices des avantages en matière de confidentialité.

« L’investissement dans les infrastructures nous permet de garantir que la confidentialité se retrouve systématiquement dans tout ce que nous développons. Nous pouvons ainsi continuer à créer, dans le respect de la confidentialité, des produits innovants offrant une valeur ajoutée à nos utilisateur·ices. »


Michel Protti, directeur de la confidentialité pour les produits

Photo of two people collaborating

Nous poursuivons la création d’infrastructures intégrant la notion de confidentialité. Ces solutions d’infrastructure sont innovantes et évolutives, et permettent aux ingénieur·es de tenir compte plus facilement des exigences en matière de confidentialité lors de la conception de produits. Cette infrastructure respectueuse de la confidentialité nous permet de faire un usage croissant de l’automatisation et ainsi d’éviter de faire appel uniquement à des personnes et des processus manuels pour nous assurer que nos responsabilités en matière de confidentialité sont bien respectées.

Nous réduisons activement la quantité de données sur les utilisateur·ices que nous recueillons et utilisons en déployant des technologies et outils innovants sur l’ensemble de Meta. Nous continuons d’investir dans des technologies protectrices de la confidentialité (PETs), basées sur des techniques cryptographiques et statistiques avancées, pour réduire le volume de données que nous recueillons, traitons et utilisons. Nous travaillons en outre pour publier ces technologies en open source dans le cas où elles s’avéreraient utiles pour l’écosystème global, ce qui concerne notamment les PETs pour l’IA via PyTorch. De plus, les investissements que nous consacrons aux PETs nous ont permis de créer une nouvelle fonctionnalité de chiffrement sécurisé sur WhatsApp qui vous permet de vérifier la sécurité de vos connexions et conversations grâce à la transparence des clés. Cette fonctionnalité réduit le risque d’usurpation d’identité d’une personne ou d’une entreprise avec laquelle un·e utilisateur·ice tenterait de communiquer et d’échanger des messages chiffrés. Pour cela, elle contrôle la validité des clés publiques dans la conversation en les comparant à celles d’un répertoire côté serveur qui stocke également des informations sur le compte, puis fournit un journal d’audit public et respectueux de la confidentialité attestant que les données n’ont pas été supprimées ni modifiées dans le répertoire.

Dans la même veine, nous avons développé un framework pour la suppression du code et des ressources, qui guide les ingénieur·ses pour un abandon sûr et efficace des produits. L’abandon des produits est une opération complexe qui s’appuie sur des dépendances internes et externes, notamment des dépendances à d’autres produits Meta qui ne sont pas concernés par l’abandon. Pour résoudre ce problème, notre Systematic Code and Asset Removal Framework (SCARF) comprend un outil de gestion du workflow qui fait gagner du temps aux ingénieur·ses en identifiant les dépendances, ainsi que l’ordre correct des tâches d’élimination d’un produit. De plus, le SCARF se compose de sous-systèmes dédiés à la suppression sécurisée du code mort et des types de données non utilisés.

Le SCARF assiste l’humain pour des milliers de projet d’abandon et permet l’élimination automatique millions de ressources de code et de données. Il est par ailleurs très utile à nos équipes chargées de la confidentialité, qui s’en servent pour contrôler l’avancement des opérations d’abandon en cours et pour garantir le respect des délais.

04. UN ENGAGEMENT CONTINU EN FAVEUR DE LA CONFIDENTIALITÉ

Nous investissons dans la confidentialité et nous nous engageons en faveur d’une amélioration continue.

« La mise en œuvre de la confidentialité demande un investissement continu de la part de tou·tes au sein de notre entreprise. Il incombe à chaque employé·e de Meta de mener à bien notre mission. » — Michel Protti, directeur de la confidentialité pour les produits

La protection des données et de la confidentialité des utilisateur·ices est la pierre angulaire de notre entreprise et de notre vision de l’avenir. En ce sens, nous affinons et améliorons continuellement notre programme de confidentialité et nos produits afin de répondre à l’évolution des attentes et de la technologie (en travaillant avec des législateur·ices et des spécialistes de la protection des données afin de trouver des solutions à des défis inédits), et nous partageons nos avancées au fur et à mesure.