— Michel Protti, directeur de la confidentialité pour les produits
Nos structures internes de gouvernance sous-tendent notre travail sur la confidentialité. Elles intègrent les normes de confidentialité et d’utilisation des données dans l’ensemble des activités de l’entreprise.
À mesure que se poursuit l’intégration de la confidentialité dans toute notre entreprise, nous mettons en place des équipes dédiées à la confidentialité au sein des groupes de produits. Elles ont pour mission de renforcer la sensibilisation aux questions de confidentialité en offrant une expertise spécifique à chaque groupe de produits. Ces équipes sont le premier rempart assurant le respect de nos responsabilités en matière de confidentialité sur l’ensemble de nos produits.
Dirigée par Michel Protti, directeur de la confidentialité pour les produits, l’équipe Confidentialité et pratiques relatives aux données de Meta est composée d’une douzaine de sous-équipes, aux compétences aussi bien techniques que non techniques, qui se consacrent aux stratégies de confidentialité et aident le reste de l’entreprise à y adhérer.
Cette équipe est au cœur de nos efforts pour garantir un programme de confidentialité complet. Elle a pour mission d’instaurer au sein des technologies Meta des pratiques responsables en matière de données. Pour ce faire, elle veille à ce que les internautes comprennent la manière dont Meta utilise leurs données et aient confiance dans le fait que nos produits utilisent leurs données de manière responsable.
Cette équipe est loin d’être la seule organisation responsable de la confidentialité au sein de l’entreprise. Des milliers de personnes chez Meta, occupant différents postes et évoluant dans différentes organisations, s’emploient à intégrer la confidentialité dans chacun des aspects que couvrent les activités de notre entreprise, y compris la politique publique et les questions juridiques. Mettre en œuvre la confidentialité de manière adéquate est une mission profondément transversale, et nous estimons que tout le monde chez Meta est responsable de cet effort.
Dirigée par Erin Egan, vice-présidente et responsable de la politique de confidentialité, l’équipe Confidentialité et utilisation des données est chargée d’affirmer et de présenter notre engagement dans les débats publics organisés à l’échelle mondiale sur le thème de la confidentialité, y compris au sujet des nouvelles structures réglementaires. Elle veille à ce que les recommandations des gouvernements et des spécialistes du monde entier soient prises en compte dans la conception de nos produits et les pratiques d’utilisation des données.
Dans cette optique, notre équipe Politique de confidentialité et d’utilisation des données a recours à ces groupes par l’intermédiaire de mécanismes de consultation, dont :
De plus, nous organisons régulièrement une série de tables rondes, ainsi qu’une rencontre annuelle réunissant des spécialistes internationaux, reconnu·es dans le domaine de la confidentialité, afin d’aborder un certain nombre de sujets urgents relatifs à la confidentialité.
L’équipe Confidentialité et lois intervient dans la conception et l’application continue de notre programme. Elle apporte également un avis sur les exigences légales inhérentes à notre processus d’examen de la confidentialité.
Le Comité confidentialité est un comité indépendant qui travaille sous l’égide de notre Conseil d’administration et qui se réunit tous les trimestres pour veiller au respect de nos engagements vis-à-vis de la confidentialité. Ce Comité est composé de directeurs et directrices indépendant·es avec une longue expérience dans des fonctions de surveillance similaires. Au moins une fois par trimestre, il reçoit des rapports concernant entre autres le paysage de la réglementation internationale, l’avancement de notre programme de confidentialité et le statut de l’évaluation indépendante tierce de notre programme de confidentialité.
L’audit interne permet de confirmer de façon indépendante l’état général de notre programme de confidentialité et sa structure de contrôle sous-jacente.
Pour garantir que chaque personne comprenne son rôle de garante de la confidentialité de notre entreprise, Meta organise des formations continues sur les questions de confidentialité qui comprennent des campagnes de sensibilisation en interne et des formations.
Notre formation sur les questions de confidentialité est un élément central de notre démarche pédagogique dans ce domaine. Elle reprend les éléments constitutifs de la confidentialité et est conçue pour que chaque employé·e de Meta puisse reconnaître les risques liés à la confidentialité et les prendre en compte. Qu’il s’agisse de notre formation annuelle ou de nos cours sur la confidentialité pour les nouvelles recrues et les nouvel·les travailleur·ses occasionnel·les, la version en ligne propose des exemples sous forme de scénarios reprenant les notions de confidentialité inhérentes à nos activités commerciales et inclut un test permettant d’évaluer la compréhension des concepts de confidentialité concernés. Ces formations sont actualisées et déployées chaque année afin de nous assurer que toute information pertinente est incluse avec les concepts clés.
En parallèle de notre formation élémentaire obligatoire sur la confidentialité, nous récapitulons également dans un catalogue toutes les formations mises en place par Meta dans ce domaine qui sont pertinentes pour les personnes travaillant à des postes spécifiques.
Nous assurons également l’apprentissage de la confidentialité par l’envoi régulier de communications à notre personnel. En plus de nos formations sur la confidentialité, nous fournissons régulièrement du contenu sur ce sujet par l’intermédiaire de nos réseaux internes de communication, des actualités transmises par les responsables de la confidentialité, des sessions de questions/réponses en interne et d’une Semaine de la confidentialité.
Pendant notre Semaine de la confidentialité, nous mettons à l’honneur la confidentialité dans toute l’entreprise et donnons la parole à des intervenant·es internes et externes. Nous mettons également en avant les concepts de confidentialité clés et les priorités dans ce domaine à travers des contenus et des évènements intéressants.
Lorsque nous participons à des évènements externes sur le thème de la confidentialité, comme la Journée de la protection des données ou notre rencontre annuelle des spécialistes de la confidentialité, nous renforçons la sensibilisation interne et encourageons les interactions sur les canaux internes pour veiller à ce que tout le monde ait la possibilité de participer et d’en savoir plus sur la confidentialité.
Nous disposons d’une équipe dédiée dont la mission est de garantir notre conformité aux réglementations internationales relatives à la confidentialité et à l’utilisation des données. Notre processus de préparation réglementaire s’articule autour de thèmes clés de la confidentialité, ou « domaines de confidentialité » (par exemple, la jeunesse, les données sensibles, le consentement) pour garantir une prise en charge exhaustive des exigences de confidentialité.
Nous avons créé notre propre programme de gestion des risques de confidentialité afin d’identifier et d’évaluer les risques liés à notre collecte, notre utilisation, notre partage et notre stockage des données des utilisateur·ices. Nous suivons ce processus pour repérer les aspects à risque, améliorer notre programme de confidentialité et nous préparer à de futures initiatives ayant trait à la conformité.
Nous avons mis en place des dispositifs, notamment dans le cadre des processus et contrôles techniques, pour neutraliser les risques de confidentialité. En ce sens, nous réalisons des évaluations internes portant sur la conception et l’efficacité de ces dispositifs afin d’atténuer les risques de confidentialité.
Nous avons établi une fonction centralisée de gestion des problèmes pour faciliter l’auto-identification et la neutralisation des problèmes liés à la confidentialité. Ce processus recouvre tout le cycle de vie de la gestion des problèmes de confidentialité : ouverture, tri, planification de la neutralisation et clôture avec preuve.
Nous avons créé une red team dont le rôle est de tester, de manière proactive, nos processus et technologies afin d’identifier les risques potentiels en matière de confidentialité. La red team joue le rôle d’un acteur externe ou interne qui tente de contourner nos contrôles et dispositifs de confidentialité, ce qui nous aide à identifier proactivement les points à améliorer dans notre environnement de contrôle.
Quelle que soit la solidité de nos mesures de limitation et de protection, nous avons également besoin d’un processus permettant (1) d’identifier les évènements susceptibles de porter atteinte à la confidentialité, à l’intégrité ou à la disponibilité des données dont Meta est responsable, (2) d’enquêter sur ces situations et (3) de prendre toutes les mesures nécessaires pour combler les failles identifiées.
Nous appliquons notre programme de gestion des incidents partout dans le monde afin de superviser nos processus d’identification, d’évaluation, de limitation et de résolution des incidents de confidentialité. Si l’équipe Confidentialité et pratiques relatives aux données est responsable du processus de gestion des incidents, chez Meta, tout le monde est garant de la confidentialité. Les équipes de toute l’entreprise, et notamment les équipes juridiques et produit, jouent un rôle essentiel. Nous continuons à investir du temps, des ressources et de l’énergie pour créer un programme à plusieurs niveaux, qui évolue et se bonifie en permanence, et nous mettons l’accent sur les trois éléments suivants de notre approche.
Nous adoptons une approche multicouche pour protéger les personnes et leurs informations. Cela passe par des dispositifs pensés pour intercepter proactivement les bugs avant qu’ils ne posent problème. Compte tenu de l’échelle à laquelle nous opérons, nous avons investi massivement dans le développement et le déploiement d’une grande variété d’outils automatisés qui nous aident à identifier et à résoudre les incidents de confidentialité potentiels aussi facilement et rapidement que possible. Ces systèmes automatisés sont conçus pour détecter les incidents en temps réel et favoriser une réponse rapide.
Bien entendu, quelle que soit la capacité de nos systèmes automatisés, la surveillance et la diligence de nos employé·es jouent toujours un rôle essentiel dans l’identification et la résolution proactives des incidents. Nos équipes d’ingénierie vérifient régulièrement nos systèmes afin d’identifier et de résoudre les incidents avant qu’ils ne touchent les internautes.
Depuis 2011, nous exploitons un programme de prime au bug dans le cadre duquel des chercheur·ses externes nous aident à améliorer la sécurité et la confidentialité de nos produits et systèmes en nous signalant les vulnérabilités de sécurité potentielles. Ce programme nous aide à élargir nos efforts de détection et à résoudre les problèmes plus rapidement pour mieux protéger notre communauté. Les primes accordées aux participant·es éligibles favorisent ainsi la réalisation de recherches de grande qualité en matière de sécurité.
Au cours des 10 dernières années, plus de 50 000 chercheur·ses ont rejoint ce programme, et près de 1 500 personnes originaires de 107 pays différents ont déjà bénéficié de primes.
Bien que nous ayons adopté plusieurs mesures de protection contre les incidents de confidentialité, tels que les accès non autorisés aux données, nous ne sommes pas à l’abri d’un incident. Ceci étant, nous estimons que la transparence dont nous pouvons faire preuve permettra de rétablir la confiance dans nos produits et nos processus au fil du temps. De ce fait, en plus de réparer nos erreurs et en tirer les leçons, notre programme de gestion des incidents prévoit des étapes permettant d’informer les internautes lorsque cela s’avère nécessaire, par l’intermédiaire de publications dans notre Newsroom ou notre blog Privacy Matters au sujet de problèmes ayant un impact sur notre communauté, mais aussi la collaboration avec la police ou d’autres autorités pour résoudre les incidents que nous identifions.
Les tiers sont des partenaires externes qui travaillent avec Meta, mais qui ne sont ni détenus ni dirigés par Meta. Ces tiers appartiennent généralement à deux catégories principales : les prestataires de services pour Meta (proposant une assistance à la création de site Web, par exemple) et les personnes qui développent leurs activités autour de notre plateforme (comme les développeur·ses d’applications ou d’API). Pour limiter les risques de confidentialité inhérents aux tiers qui ont accès aux informations personnelles, nous avons élaboré un programme tiers de supervision et de gestion permettant de superviser les risques de confidentialité induits par les tiers et de mettre en œuvre les dispositifs de protection appropriés.
Nous avons également créé un processus tiers d’évaluation de la confidentialité dédié aux prestataires de services afin d’évaluer et de limiter les risques. En accord avec notre processus, ces prestataires de services sont également liés par des contrats prévoyant des protections de la confidentialité. Leur profil de risque détermine la façon dont ils et elles sont surveillé·es, réévalué·es, et le cas échéant, les sanctions à appliquer en cas de manquement (résiliation du contrat, par exemple).
Nous avons conçu un processus officiel de mise en application de nos exigences et d’exclusion des tiers qui manquent à leurs obligations en matière de sécurité ou de confidentialité. Sont inclus les mécanismes standard et techniques qui encouragent la mise en place de meilleures pratiques chez les développeur·ses sur l’ensemble de nos plateformes, et notamment :
Notre équipe missionnée pour contrôler l’utilisation détournée des données externes se charge de détecter, d’analyser et de bloquer les comportements associés au scraping. Le scraping est la collecte automatisée, autorisée ou non, de données depuis un site Web ou une application. Le recours à l’automatisation pour accéder à des données sur les plateformes de Meta ou les collecter sans notre autorisation constitue une infraction à nos conditions de service.
Nous investissons continuellement dans l’infrastructure et les outils afin qu’il soit plus difficile pour les scrapers de collecter des données à partir de nos services et d’en tirer profit le cas échéant. Des exemples de ces investissements sont les plafonds et les limites de données. Les plafonds limitent le nombre de fois qu’une personne peut interagir avec nos produits dans un laps de temps donné, tandis que les limites de données empêchent d’obtenir plus de données qu’il n’en faut pour utiliser nos produits normalement.
Nous utilisons des identifiants d’utilisateur·ices et de contenu générés en interne, après avoir constaté que le scraping non autorisé impliquait souvent de deviner ou d’acheter ces identifiants. Nous utilisons par ailleurs de nouveaux identifiants pseudonymisés qui permettent de prévenir le scraping non autorisé de données, en faisant en sorte que deviner, se connecter et accéder de manière répétée aux données soit plus compliqué pour les scrapers.
Chaque jour, nous bloquons des milliards d’actions de scraping non autorisées sur Facebook et Instagram, et nous prenons plusieurs mesures contre les personnes s’y adonnant, notamment la désactivation des comptes et la demande de suppression des données scrapées auprès des entreprises qui les hébergent.
Chez Meta, le processus d’examen de la confidentialité est au cœur du développement de nouveaux produits et services, de nouvelles pratiques, et de leur mise à jour. Grâce à ce processus, nous évaluons comment les données seront utilisées et protégées dans les produits, services et pratiques nouveaux ou mis à jour. Chaque mois, nous examinons en moyenne 1 200 produits, fonctionnalités et pratiques relatives aux données au sein de l’entreprise, avant leur mise en production, en vue d’évaluer et d’atténuer les risques en matière de confidentialité.
Dans le cadre de ce processus, une équipe transversale composée de spécialistes de la confidentialité évalue les risques potentiels de violation de la confidentialité liés à un projet. Elle détermine ensuite si des changements doivent être mis en œuvre avant le lancement du projet afin d’atténuer ces risques. Si l’évaluation des risques ou les mesures d’atténuation proposées pour un produit font l’objet d’un désaccord, les équipes doivent alors solliciter les personnes responsables des produits et des politiques, et éventuellement le PDG, afin obtenir un avis plus détaillé et de prendre une décision finale.
Le développement de nos produits, services et pratiques, nouveaux et modifiés, par l’intermédiaire du processus d’examen de la confidentialité, est guidé par nos attentes internes en matière de confidentialité, qui couvrent notamment les aspects suivants :
Nous avons également investi dans les examens de vérification et dans une plateforme centralisée afin de soutenir le processus d’examen de la confidentialité à grande échelle :
— Komal Lahiri, vice-présidente Examen de la confidentialité
La confidentialité de nos utilisateur·ices est au centre de nos pratiques en matière de création et de mise à jour continue de nos produits. Nous tenons compte de cette confidentialité en développant des paramètres et des contrôles par défaut qui permettent aux utilisateur·ices de configurer facilement le niveau de confidentialité de leur choix. La confidentialité est également une pierre angulaire du développement de nouveaux produits.
Depuis 2016, Messenger propose l’option de chiffrement de bout en bout à ses utilisateur·ices. En 2023, nous avons commencé à déployer le chiffrement de bout en bout par défaut pour l’ensemble des discussions et appels personnels sur Messenger et Facebook.
Ce processus a duré des années, car nous avions à cœur de bien faire les choses. Nos ingénieur·ses, cryptographes, concepteur·ices, spécialistes des politiques et gestionnaires de produits ont travaillé sans relâche pour reconstruire de zéro les fonctionnalités Messenger. Le déploiement du chiffrement de bout en bout sur Messenger a exigé une refonte radicale de plusieurs aspects des protocoles de l’application afin de renforcer la confidentialité, la sécurité et la sûreté tout en préservant les fonctionnalités à l’origine du succès de Messenger. Notre approche s’est basée sur les enseignements que nous avons tirés des conversations secrètes sur WhatsApp et Messenger, avant de les appliquer aux problèmes les plus épineux, tels que l’utilisation de plusieurs appareils, la prise en charge des fonctionnalités, l’historique des messages et l’assistance Web. Tout au long de ce processus, nous avons ajouté de nouvelles fonctionnalités de confidentialité, de sécurité et de contrôle, comme le verrouillage des applications et les paramètres de réception pour que les internautes puissent choisir les personnes autorisées à leur envoyer un message. Nous avons également amélioré les fonctionnalités de sécurité existantes, comme le signalement, le blocage et les invitations par message.
Le chiffrement de bout en bout vise avant tout à protéger les communications des internautes pour leur permettre de communiquer en toute sécurité avec leurs ami·es et leurs proches. Nous avons étroitement collaboré en externe avec des spécialistes, des universitaires, des militant·es et des gouvernements pour identifier les risques et prendre des mesures d’atténuation afin de faire rimer confidentialité avec sécurité. Nous avons commandé une évaluation indépendante de l’impact sur les droits humains et publié un livre blanc qui explique en détail l’approche de Meta concernant les messages privés sur Messenger et Instagram.
Les lunettes intelligentes Ray-Ban Meta vous permettent de prendre une photo ou d’enregistrer une courte vidéo de votre point de vue unique, d’écouter de la musique ou de passer un appel, ainsi que d’utiliser nos fonctionnalités intelligentes à mesure que nous les déployons. Le tout sans avoir à sortir votre téléphone. Les lunettes intelligentes Ray-Ban Meta sont équipées d’une caméra, d’un système audio et d’un microphone de qualité supérieure, ainsi que de nouvelles fonctionnalités telles que le stream en direct et l’assistant Meta IA intégré. Résultat : vous n’avez plus besoin de choisir entre profiter du moment présent et l’immortaliser.
Les lunettes intelligentes Ray-Ban Meta ont été conçues dans le respect de la confidentialité. Elles témoignent clairement de notre engagement envers l’innovation responsable et la confidentialité intégrée. Nous avons pris en compte les retours de nos parties prenantes, collectés dès le lancement des Ray-Ban Stories, et les avons appliqués de façon concrète.
Nous avons lancé de nouvelles expériences d’IA générative, y compris des stickers, l’édition d’images avec l’IA, notre assistant Meta AI et Studio IA, avec lequel les utilisateur·ices peuvent créer leur propre IA personnalisée. Nous avons intégré d’importantes mesures relatives à la confidentialité lors de la conception de ces nouvelles fonctionnalités d’IA générative prometteuses et avons développé un Guide de la confidentialité de l’IA générative ainsi que d’autres ressources en lien avec la transparence pour aider les internautes à comprendre la conception de nos modèles d’IA, le fonctionnement des fonctionnalités d’IA et les contrôles et droits qu’elles proposent en matière de confidentialité.
L’année passée, nous avons mis à jour notre outil Pourquoi est-ce que je vois ça ?, qui explique aux internautes pourquoi ils et elles voient certaines publicités sur leur fil Facebook et Instagram. Notre travail a notamment consisté à regrouper les informations par thèmes pour expliquer comment l’activité sur et en dehors de nos technologies alimente les modèles de machine learning utilisés pour choisir et diffuser des publicités : par exemple, le fait d’aimer une publication sur la Page Facebook d’un·e ami·e ou de consulter un site Web spécialisé dans le sport. Nous avons également ajouté des exemples et illustrations qui expliquent comment nos modèles de machine learning font le lien entre différents thèmes pour montrer des publicités pertinentes. En outre, nous facilitons le contrôle des publicités pour les utilisateur·ices en leur permettant d’accéder à leurs préférences publicitaires à partir de nouvelles pages dans l’outil Pourquoi est-ce que je vois ça ?.
Nous avons créé la Bibliothèque de contenus Meta (MCL) et développé une API. Ces nouveaux outils permettent aux chercheur·ses qualifié·es d’accéder à davantage de contenu public sur Facebook et Instagram, dans le respect de la confidentialité.
Ils donnent aux chercheur·ses accès à des données publiques en quasi temps réel, y compris du contenu issu de Pages, Groupes et Évènements Facebook, ainsi que de Creators et comptes business sur Instagram. Des détails sont également disponibles à propos du contenu, comme le nombre de réactions, de partages, de commentaires et, pour la première fois, de vues par publication. Les chercheur·ses peuvent rechercher, explorer et filtrer ce contenu sur une interface d’utilisation (UI) graphique ou via l’API programmatique.
Nous sommes partenaires de l’Inter-University Consortium for Political and Social Research (ICPSR) dans le cadre de l’initiative Social Media Archive (SOMAR) de l’université du Michigan. Le but est de partager des données publiques de nos plateformes, où l’accès à des données restreintes est étroitement surveillé et soumis à l’acceptation de nos conditions strictes d’utilisation et de confidentialité des données par les utilisateur·ices agréé·es.
Les efforts que nous déployons pour communiquer en toute transparence nous amènent à faire appel à des ressources éducatives externes pour expliquer clairement aux internautes nos pratiques, à les sensibiliser davantage, ainsi qu’à veiller à ce que les informations soient facile d’accès.
Afin de proposer toujours plus de transparence et de contrôle aux internautes, nous avons développé un certain nombre d’outils dédiés à la confidentialité qui leur permettent de comprendre ce qu’ils et elles partagent et la manière dont leurs informations sont utilisées, notamment :
— Michel Protti, directeur de la confidentialité pour les produits
Nous poursuivons la création d’infrastructures intégrant la notion de confidentialité. Ces solutions d’infrastructure sont innovantes et évolutives, et permettent aux ingénieur·es de tenir compte plus facilement des exigences en matière de confidentialité lors de la conception de produits. Cette infrastructure respectueuse de la confidentialité nous permet de faire un usage croissant de l’automatisation et ainsi d’éviter de faire appel uniquement à des personnes et des processus manuels pour nous assurer que nos responsabilités en matière de confidentialité sont bien respectées.
Nous réduisons activement la quantité de données sur les utilisateur·ices que nous recueillons et utilisons en déployant des technologies et outils innovants sur l’ensemble de Meta. Nous continuons d’investir dans des technologies protectrices de la confidentialité (PETs), basées sur des techniques cryptographiques et statistiques avancées, pour réduire le volume de données que nous recueillons, traitons et utilisons. Nous travaillons en outre pour publier ces technologies en open source dans le cas où elles s’avéreraient utiles pour l’écosystème global, ce qui concerne notamment les PETs pour l’IA via PyTorch. De plus, les investissements que nous consacrons aux PETs nous ont permis de créer une nouvelle fonctionnalité de chiffrement sécurisé sur WhatsApp qui vous permet de vérifier la sécurité de vos connexions et conversations grâce à la transparence des clés. Cette fonctionnalité réduit le risque d’usurpation d’identité d’une personne ou d’une entreprise avec laquelle un·e utilisateur·ice tenterait de communiquer et d’échanger des messages chiffrés. Pour cela, elle contrôle la validité des clés publiques dans la conversation en les comparant à celles d’un répertoire côté serveur qui stocke également des informations sur le compte, puis fournit un journal d’audit public et respectueux de la confidentialité attestant que les données n’ont pas été supprimées ni modifiées dans le répertoire.
Dans la même veine, nous avons développé un framework pour la suppression du code et des ressources, qui guide les ingénieur·ses pour un abandon sûr et efficace des produits. L’abandon des produits est une opération complexe qui s’appuie sur des dépendances internes et externes, notamment des dépendances à d’autres produits Meta qui ne sont pas concernés par l’abandon. Pour résoudre ce problème, notre Systematic Code and Asset Removal Framework (SCARF) comprend un outil de gestion du workflow qui fait gagner du temps aux ingénieur·ses en identifiant les dépendances, ainsi que l’ordre correct des tâches d’élimination d’un produit. De plus, le SCARF se compose de sous-systèmes dédiés à la suppression sécurisée du code mort et des types de données non utilisés.
Le SCARF assiste l’humain pour des milliers de projet d’abandon et permet l’élimination automatique millions de ressources de code et de données. Il est par ailleurs très utile à nos équipes chargées de la confidentialité, qui s’en servent pour contrôler l’avancement des opérations d’abandon en cours et pour garantir le respect des délais.
« La mise en œuvre de la confidentialité demande un investissement continu de la part de tou·tes au sein de notre entreprise. Il incombe à chaque employé·e de Meta de mener à bien notre mission. » — Michel Protti, directeur de la confidentialité pour les produits
La protection des données et de la confidentialité des utilisateur·ices est la pierre angulaire de notre entreprise et de notre vision de l’avenir. En ce sens, nous affinons et améliorons continuellement notre programme de confidentialité et nos produits afin de répondre à l’évolution des attentes et de la technologie (en travaillant avec des législateur·ices et des spécialistes de la protection des données afin de trouver des solutions à des défis inédits), et nous partageons nos avancées au fur et à mesure.