- Michel Protti, Chief Privacy Officer for Product
Il nostro impegno nella tutela della privacy si basa sulle nostre strutture interne di governance, che integrano la privacy e gli standard sull'uso dei dati in tutte le attività aziendali.
Mentre continuiamo a integrare la privacy a tutti i livelli dell'azienda, abbiamo inserito nei vari reparti prodotto team addetti alla privacy che aiutino a comprendere meglio le considerazioni relative alla privacy mettendo a disposizione competenze specifiche per ogni reparto di prodotto. Questi team consentono l'individuazione di responsabilità chiare rispetto alla privacy dei nostri prodotti.
Il team Privacy and Data Practices, sotto la guida del Chief Privacy Officer Michel Protti, è costituito da decine di team (tecnici e non) che si occupano di impostare e lavorare sulle strategie di privacy, facendo in modo che il resto dell'azienda le rispetti.
Il team Privacy and Data Practices è il cuore pulsante delle nostre iniziative aziendali volte a portare avanti un programma di privacy integrale. La sua missione è diffondere pratiche responsabili sull'uso dei dati all'interno di Meta ed è un punto di riferimento, in quanto aiuta le persone a capire in che modo Meta usa i loro dati e fa in modo che abbiano la garanzia del fatto che i nostri prodotti usano i loro dati in modo responsabile.
Il team Privacy and Data Practices, però, è solo una fra le tante organizzazioni responsabili della privacy all'interno dell'azienda. Sono migliaia le persone afferenti a diverse organizzazioni e ruoli all'interno di Meta che lavorano per integrare la privacy in tutti gli aspetti delle nostre attività aziendali (fra questi, i team legale e Public Policy). Gestire correttamente la privacy è un'attività interfunzionale e siamo convinti che chiunque all'interno di Meta ne condivida la responsabilità.
Il team Privacy e Data Policy, sotto la guida di Erin Egan (Vice President e Chief Privacy Officer, Policy), porta avanti il nostro contributo al dibattito globale su privacy e nuovi quadri normativi e si assicura che il feedback che riceviamo da governi ed esperti di tutto il mondo sia tenuto in considerazione nello sviluppo dei nostri prodotti e nelle prassi relative all'utilizzo dei dati.
Per riuscirci, il team Privacy e Data Practices si confronta con questi gruppi tramite diversi meccanismi consultivi, fra cui:
Organizziamo inoltre con regolarità momenti di confronto e un incontro annuale degli esperti di privacy con specialisti di tutto il mondo, durante i quali discutiamo i più importanti aspetti delle normative in quest'ambito.
Il team Privacy Legal è direttamente coinvolto nella definizione e applicazione continua del nostro programma e fornisce consulenza sui requisiti legali durante il nostro processo di controllo della privacy.
La Privacy Committee è una commissione indipendente interna al nostro consiglio di amministrazione e si riunisce almeno una volta per trimestre per garantire il rispetto dei nostri impegni di privacy. La commissione è composta da membri indipendenti con una comprovata esperienza in simili ruoli di supervisione. Almeno una volta per trimestre, riceve aggiornamenti in merito al panorama globale in termini di normativa, allo stato del nostro programma per la privacy e allo stato della valutazione indipendente di terzi del programma e altro ancora.
L'Internal Audit garantisce in modo indipendente lo stato di salute del programma di privacy e della struttura di controllo sottostante.
Offrire formazione continua e organizzare campagne di sensibilizzazione sul tema ci aiuta a garantire che tutti all'interno di Meta sappiano qual è il loro ruolo nella tutela della privacy.
Elemento cardine del nostro impegno alla sensibilizzazione sul tema è la formazione sulla privacy. La nostra formazione sulla privacy tocca le nozioni di base ed è pensata per aiutare tutti i dipendenti di Meta a sviluppare la capacità di individuare e valutare i rischi connessi alla privacy. Con un formato e-learning, sia la formazione annuale sulla privacy che i corsi sulla privacy per i nuovi assunti e i nuovi collaboratori occasionali offrono esempi concreti di considerazioni di privacy in linea con le attività aziendali e prevedono una valutazione per verificare l'assimilazione dei relativi concetti di privacy. Questi corsi sono aggiornati ed erogati ogni anno per garantire l'integrazione delle informazioni via via necessarie nei concetti di base.
Oltre ai corsi di formazione di base e obbligatori sulla privacy, abbiamo anche un catalogo di tutti i corsi erogati all'interno di Meta, che include argomenti specifici per le varie posizioni lavorative.
Un'altra modalità in cui favoriamo la formazione in materia di privacy è la comunicazione regolare con i dipendenti. Oltre ai nostri corsi di formazione sulla privacy, proponiamo continuamente attività e contenuti in materia tramite i canali di comunicazione interna, come aggiornamenti dei responsabili della privacy, serie interne di domande e risposte e una Privacy Week.
Durante la nostra Privacy Week portiamo le questioni di privacy all'attenzione di tutta l'azienda, ospitiamo relatori interni ed esterni e approfondiamo concetti e priorità essenziali di privacy con contenuti coinvolgenti ed eventi.
Quando partecipiamo a eventi esterni dedicati alla privacy, come il Data Privacy Day o il nostro incontro con esperti in materia di privacy, portiamo avanti campagne di informazione e coinvolgimento tramite canali interni per garantire a chiunque la possibilità di partecipare e approfondire queste tematiche.
Abbiamo un team dedicato che si occupa di garantire il rispetto da parte nostra delle normative sulla privacy e sui dati a livello globale. Il nostro processo di preparazione a livello normativo è strutturato sulla base di tematiche chiave in termini di privacy o "aree della privacy" (ad esempio giovani, dati sensibili, consenso, eccetera) per garantire il nostro rispetto olistico dei requisiti di privacy.
Abbiamo sviluppato il nostro Programma di gestione dei rischi di privacy per identificare e valutare i rischi legati alle modalità in cui raccogliamo, usiamo, condividiamo e memorizziamo i dati degli utenti. Ci affidiamo a questo processo per individuare gli ambiti di rischio, migliorare il programma di privacy e preparare le prossime iniziative di conformità.
Abbiamo progettato misure di sicurezza, come processi e controlli tecnici, per affrontare i rischi di privacy. A questo scopo, svolgiamo valutazioni interne sulla progettazione e l'efficacia delle misure di sicurezza per ridurre i rischi di privacy.
Abbiamo creato una funzione centralizzata di gestione dei problemi per l'auto-identificazione e la risoluzione di problemi legati alla privacy. Questo processo coinvolge il ciclo di gestione dei problemi di privacy, dalla presa in carico e valutazione, al piano di correzione fino alla chiusura con delle prove.
Abbiamo costituito un red team addetto alla privacy che si occupa di mettere alla prova i nostri processi e tecnologie per individuare eventuali rischi di privacy. Il Red team addetto alla privacy testa i nostri controlli di privacy e sicurezza, cercando di aggirarli come potrebbero fare soggetti interni o esterni. Questo ci permette di identificare in modo proattivo le aree in cui possiamo migliorare in termini di controllo.
A prescindere da quanto siano efficaci le limitazioni dei rischi e misure di sicurezza di cui ci dotiamo, abbiamo anche bisogno di un processo che (1) individui eventi che rischiano di minare la riservatezza, l'integrità o la disponibilità dei dati di cui Meta è responsabile, (2) investighi queste situazioni e (3) attui qualsiasi azione necessaria a colmare le lacune riscontrate.
Il nostro programma di gestione degli incidenti è operativo a livello globale e sovrintende ai processi che usiamo per individuare, valutare, limitare e risolvere gli incidenti di privacy. Anche se il processo di gestione degli incidenti è gestito dal team Privacy and Data Practices, gli incidenti di privacy sono responsabilità di tutti all'interno di Meta. I team di tutta l'azienda, compresi il team legale e quelli di prodotto, svolgono un ruolo fondamentale. Continuiamo a investire tempo, energie e risorse nella definizione di un programma a più livelli, costantemente oggetto di revisione e miglioramenti, e qui sotto mettiamo in evidenza tre elementi del nostro approccio.
Adottiamo un approccio a più livelli per proteggere le persone e le loro informazioni, implementando misure di sicurezza volte a individuare i bug in modo proattivo, prima che possano diventare un problema. Data la scala su cui operiamo, abbiamo investito moltissimo nello sviluppo e nell'applicazione di un'ampia gamma di strumenti automatizzati che ci aiutano a individuare e risolvere potenziali problemi di privacy il prima possibile e con la massima rapidità. Questi sistemi automatizzati sono pensati per individuare gli incidenti in tempo reale per consentire una risposta rapida.
Ovviamente, a prescindere da quanto efficaci possano diventare i nostri sistemi automatizzati, la supervisione e la diligenza dei nostri dipendenti continua a svolgere un ruolo essenziale nel consentirci di individuare rapidamente gli incidenti e risolverli. I nostri team di ingegneri controllano continuamente i nostri sistemi per individuare incidenti e risolverli prima che possano ripercuotersi sulle persone.
A partire dal 2011 abbiamo avviato un programma Bug Bounty, tramite il quale ricercatori esterni contribuiscono a migliorare la sicurezza e la privacy dei nostri prodotti e sistemi segnalandoci possibili vulnerabilità di sicurezza. Il programma ci consente di potenziare le nostre attività di rilevamento e di risolvere i problemi più rapidamente per proteggere la nostra community, mentre le ricompense che riconosciamo ai partecipanti idonei incoraggiano ricerche di alta qualità in materia di sicurezza.
Negli ultimi 10 anni hanno preso parte al programma oltre 50 000 ricercatori e circa 1500 di loro, provenienti da 107 Paesi, hanno ricevuto ricompense monetarie.
Anche se abbiamo adottato una serie di protezioni per prevenire incidenti di privacy, come l'accesso non autorizzato ai dati, nel caso si verifichino incidenti riteniamo che la trasparenza sia importante per ricreare fiducia nei nostri prodotti, servizi e processi. Di conseguenza non ci limitiamo a risolvere i problemi e imparare dai nostri errori ma, laddove appropriato, informiamo le persone, in ottemperanza con il nostro programma di gestione degli incidenti. Ad esempio, facciamo post su Newsroom o sul nostro blog Privacy Matters (La privacy è importante) riguardo problemi che possono influire sulla community oppure parliamo della nostra collaborazione con le forze dell'ordine o con altre istituzioni per risolvere i problemi riscontrati.
I terzi sono nostri partner esterni che lavorano con Meta, ma non sono di proprietà o gestiti da Meta. I terzi di solito si distinguono in due categorie principali: quelli che forniscono servizi a Meta (come i fornitori che ci offrono supporto con lo sviluppo del sito web) e quelli che si basano per il proprio lavoro sulle nostre piattaforme (come gli sviluppatori di app o API). Per limitare i rischi di privacy legati alla concessione dell'accesso a informazioni personali a terzi, abbiamo sviluppato un programma dedicato alla loro gestione e supervisione, responsabile del controllo dei relativi rischi e dell'implementazione di adeguate misure di sicurezza della privacy.
Abbiamo anche creato un processo di valutazione della privacy di terzi per i fornitori di servizi per valutare e limitare i rischi di privacy. In ottemperanza con le nostre procedure, questi fornitori di servizi sono anche sottoposti a vincoli contrattuali che tutelano la protezione della privacy. In base al loro profilo di rischio stabiliamo in che misura i fornitori sono sottoposti a monitoraggio e nuove valutazioni e, se del caso, quali misure adottare in caso di violazioni, compresa la risoluzione della collaborazione.
Abbiamo definito un processo formale per applicare misure e risolvere la collaborazione con terzi che violano i loro obblighi di privacy o sicurezza. Questo processo prevede standard e meccanismi tecnici che favoriscono pratiche di sviluppo migliori sulla nostra piattaforma, compresi:
Il nostro team External Data Misuse si occupa di rilevare, investigare e fermare schemi comportamentali associati allo scraping. Lo scraping è la raccolta automatizzata di dati da un sito web o un'app e può essere autorizzato o meno. L'uso di strumenti automatici per accedere ai dati o raccoglierli sulle piattaforme di Meta costituisce una violazione delle nostre Condizioni.
Continuiamo a investire in infrastrutture e strumenti che rendono più difficile per gli scraper l'acquisizione di dati dai nostri servizi e, anche in caso i dati siano acquisiti, ne complicano l'utilizzo. Esempi di questi investimenti sono rate limiting e data limiting. Il rate limiting riduce il numero di volte in cui una persona può interagire con i nostri prodotti in un certo lasso di tempo, mentre il data limiting impedisce alle persone di ottenere più dati di quelli che servirebbero per utilizzare normalmente i nostri prodotti.
Utilizziamo gli identificatori di utenti e contenuti generati internamente, in quanto abbiamo rilevato che chi fa scraping non autorizzato spesso acquista o cerca di indovinare questi identificatori. Utilizziamo anche nuovi identificatori pseudonimizzati per impedire lo scraping non autorizzato dei dati rendendo più difficile indovinare e collegare i dati e accedervi più volte.
Ogni giorno blocchiamo miliardi di azioni per sospetto di scraping non autorizzato su Facebook e Instagram e abbiamo adottato misure contro scraper non autorizzati, ad esempio disabilitando account e chiedendo alle aziende che effettuano l'hosting di dati raccolti tramite scraping di eliminarli.
Il processo di controllo della privacy è parte fondamentale dello sviluppo di nuovi prodotti, servizi e pratiche all'interno di Meta. Questo processo ci consente di valutare in che modo i dati saranno utilizzati e protetti nell'ambito di prodotti, servizi o pratiche nuovi o di aggiornamenti. Controlliamo in media 1200 prodotti, funzioni e prassi relativi ai dati ogni mese prima che vengano resi disponibili per valutare e ridurre i rischi relativi alla privacy.
Nell'ambito di questo processo, un team interfunzionale di esperti di privacy valuta i possibili rischi di privacy legati al progetto e, in caso ve ne siano, stabilisce se sia necessario apportare eventuali modifiche prima del lancio del progetto. In caso di disaccordo rispetto alla valutazione dei rischi applicabili o alle mitigazioni dei prodotti proposte, il processo prevede che i team si rivolgano ai responsabili dei prodotti e della leadership e, in ultima istanza, al CEO per una sua ulteriore valutazione e decisione.
Nell'ambito del processo di controllo della privacy, lo sviluppo dei nostri prodotti, servizi o pratiche (che siano nuovi o aggiornamenti), si basa sulle nostre aspettative interne sulla privacy, fra cui:
Abbiamo inoltre investito in controlli di verifica e in una piattaforma centralizzata a supporto del processo di controllo della privacy su larga scala:
- Komal Lahiri, VP Privacy Review
Mettiamo la tutela della privacy degli utenti al centro delle attività di sviluppo e aggiornamento dei prodotti. Per riuscirci, realizziamo impostazioni e controlli predefiniti che consentono agli utenti di definire facilmente il livello di privacy desiderato. Ci riusciamo anche perché mettiamo la privacy al primo posto nello sviluppo dei nostri prodotti.
Dal 2016 le persone hanno la possibilità di attivare la crittografia end-to-end su Messenger. Nel 2023, abbiamo iniziato a implementare la crittografia end-to-end di default per tutte le chat e le chiamate personali su Messenger e Facebook.
Ci sono voluti diversi anni per arrivare a questo risultato perché ci siamo presi il tempo necessario per farlo nel modo giusto. I nostri ingegneri, crittografi, designer, esperti di normative e product manager si sono impegnati a fondo per rivedere interamente le funzioni di Messenger. Abilitando la crittografia end-to-end su Messenger si è reso fondamentalmente necessario rivedere diversi aspetti dei protocolli di applicazione per migliorare la privacy, la sicurezza e la protezione, conservando allo stesso tempo le funzioni che hanno reso Messenger così popolare. Il nostro approccio è stato quello di sfruttare quanto avevamo appreso in precedenza da WhatsApp e dalle conversazioni segrete di Messenger e applicarlo agli aspetti più complicati, quali la funzionalità multi-dispositivo, il supporto delle funzioni, la cronologia dei messaggi e l'assistenza web. Abbiamo man mano introdotto nuove funzioni relative a privacy, sicurezza e controllo, come il blocco delle app e controlli relativi alla pubblicazione per permettere alle persone di scegliere chi può inviare loro dei messaggi; abbiamo anche migliorato le funzioni di sicurezza esistenti come le richieste di segnalazione, blocco e messaggio.
La crittografia end-to-end ha come obiettivo principale la protezione delle comunicazioni delle persone, così che queste possano sentirsi sicure nell'esprimersi con i propri cari e amici. Abbiamo lavorato a stretto contatto con esperti esterni, accademici, sostenitori e governi per identificare i rischi e creare limitazione degli stessi per garantire che la privacy e la sicurezza siano strettamente correlate. Abbiamo commissionato una valutazione dell'impatto sui diritti umani indipendente e pubblicato un white paper dettagliato relativo all'approccio di Meta per una messaggistica privata su Messenger e nei DM di Instagram più sicura.
Gli smart glasses Ray-Ban Meta permettono di scattare una foto o registrare un video dal tuo punto di vista, ascoltare musica o rispondere a una chiamata e utilizzare funzioni smart man mano che vengono introdotte, il tutto senza dover tirar fuori il tuo telefono cellulare. Sono state apportate delle modifiche agli smart glasses Ray-Ban Meta, che hanno ora una fotocamera di qualità più elevata, sistemi audio e microfono migliori e nuove funzioni, quali la possibilità di trasmettere in streaming e l'IA di Meta integrata, così non dovrai scegliere se catturare un momento o viverlo.
Gli smart glasses Ray-Ban Meta sono stati creati ponendo la privacy in primo piano e sono la dimostrazione del nostro impegno verso un'innovazione responsabile e il rispetto della privacy fin dalla progettazione di un prodotto. Abbiamo utilizzato il feedback degli stakeholder, che abbiamo ricevuto sin dal momento del lancio di Ray-Ban Stories, in modo significativo e tangibile.
Abbiamo lanciato nuove esperienze dell'IA generativa tra cui adesivi IA, l'editing di immagini con l'IA, il nostro assistente IA noto come Meta AI e AI Studio, in cui le persone possono creare la loro IA personalizzata. Abbiamo incluso importanti misure di privacy nella realizzazione di queste nuove e promettenti funzioni di IA generativa e abbiamo sviluppato una Guida sulla privacy dell'IA generativa e altre risorse sulla trasparenza per permettere alle persone di scoprire come abbiamo creato i nostri modelli di IA, come funzionano le nostre funzioni di IA e di quali scelte e diritti di privacy dei dati dispongono.
L'anno scorso abbiamo aggiornato lo strumento"Perché visualizzo questa inserzione?", che ha l'obiettivo di aiutare le persone a capire per quale motivo vedono determinate inserzioni nei feed di Facebook e Instagram. Uno degli aggiornamenti fondamentali aveva lo scopo di spiegare in breve in che modo l'attività sia all'interno sia all'esterno delle nostre tecnologie (ad esempio mettere "Mi piace" a un post sulla Pagina Facebook di un amico o visitare un sito web relativo allo sport) può fornire informazioni ai modelli di apprendimento automatico che utilizziamo per creare e pubblicare le inserzioni. Abbiamo anche introdotto nuovi esempi e illustrazioni che spiegano in che modo i modelli di apprendimento automatico connettono argomenti diversi per mostrare inserzioni pertinenti. Inoltre abbiamo introdotto più modalità per la ricerca dei controlli sulle inserzioni da parte degli utenti, dando la possibilità di accedere alla preferenze relative alle inserzioni da più pagine nello strumento "Perché visualizzo questa inserzione?".
Abbiamo sviluppato la Libreria di contenuti Meta e l'API, nuovi strumenti di ricerca che offrono a ricercatori qualificati la possibilità di accedere a contenuti pubblici aggiuntivi su Facebook e Instagram, tutelando la privacy.
Questi strumenti offrono ai ricercatori l'accesso a dati pubblici quasi in tempo reale, tra cui contenuti di Pagine, gruppi ed eventi su Facebook e contenuti di creator e account business su Instagram. Sono disponibili anche i dettagli sui contenuti, come il numero di reazioni, condivisioni, commenti e, per la prima volta, i numeri di visualizzazione del post. I ricercatori possono cercare, esplorare e filtrare quel contenuto sia su un'interfaccia grafica utente o tramite un'API programmatica.
Abbiamo collaborato con l'Inter-University Consortium for Political and Social Research (ICPSR) del Social Media Archive (SOMAR) dell'università del Michigan per condividere dati pubblici delle nostre piattaforme, dove l'accesso ai dati riservati è controllato attentamente e gli utenti autorizzati accettano condizioni molto stringenti in merito all'utilizzo dei dati e alla riservatezza per poter accedere.
La nostra opera di comunicazione trasparente include momenti di formazione a cura di professionisti esterni per migliorare la comprensione e la consapevolezza che il pubblico ha delle nostre pratiche, offrendo informazioni accessibili e facilmente reperibili.
Per offrire alle persone maggiore trasparenza e un migliore controllo, abbiamo sviluppato diversi strumenti di privacy che consentono di comprendere quali informazioni sono condivise dagli utenti e in che modo sono utilizzate, ad esempio:
- Michel Protti, Chief Privacy Officer for Product
Continuiamo a realizzare infrastrutture che favoriscono la privacy: soluzioni innovative e scalabili che consentono agli ingegneri di rispettare facilmente i requisiti di privacy nello sviluppo di nuovi prodotti. Le infrastrutture che favoriscono la privacy ci consentono anche di usare sempre più l'automazione nella verifica del rispetto delle responsabilità di privacy, invece che affidarci a persone e processi manuali.
Stiamo riducendo in modo proattivo la quantità di dati dell'utente che raccogliamo e utilizziamo sfruttando strumenti e tecnologie innovative su Meta. Continuiamo a investire in tecnologie per la tutela della privacy (PET), che sono basate su tecniche avanzate di crittografia e statistica che contribuiscono a minimizzare la quantità di dati che raccogliamo, elaboriamo e utilizziamo. Abbiamo fatto in modo di rendere questo lavoro open source per quei casi in cui è utile per l'ecosistema in senso più ampio, come per le tecnologie per la tutela della privacy per l'IA tramite PyTorch. Inoltre i nostri investimenti nelle tecnologie per la tutela della privacy hanno permesso di abilitare una nuova funzione di sicurezza crittografica su WhatsApp, che permette di verificare che la connessione e le conversazioni siano sicure sulla base della trasparenza delle chiavi. Questa funzione riduce la possibilità che una terza parte si spacci per la persona o l'azienda con cui l'utente vuole connettersi e condividere messaggi crittografati, verificando la validità delle chiavi pubbliche nella conversazione tramite una directory del server che memorizza le chiavi pubbliche con le informazioni dell'utente e fornendo quindi un record di audit pubblico, che preserva la privacy, per consentire a chiunque di verificare che i dati non siano stati cancellati o modificati nella directory.
Abbiamo anche sviluppato un framework per la rimozione di codici e risorse che assiste gli ingegneri nella rimozione di un prodotto in modo sicuro ed efficiente. L'eliminazione di un prodotto è un'attività complessa che coinvolge dipendenze interne ed esterne, comprese dipendenze su altri prodotti Meta che potrebbero non essere parte dell'ambito di eliminazione. Per far fronte a questo problema, il nostro Systematic Code and Asset Removal Framework (SCARF) offre uno strumento di gestione del flusso di lavoro che permette agli ingegneri di risparmiare tempo individuando le dipendenze e il corretto ordine delle attività per la pulizia di un prodotto. Inoltre, SCARF ha dei sottosistemi per rimuovere in modo sicuro il dead code e tipi di dati non utilizzati.
SCARF gestisce migliaia di progetti di eliminazione, oltre a milioni di risorse di codice e dati che ha ripulito in modo automatico. È anche utile per i team che si occupano di privacy, che utilizzano lo strumento per monitorare l'avanzamento delle eliminazioni dei prodotti in corso e garantire che siano completate in modo tempestivo.
"Il rispetto della privacy è un investimento costante e collettivo all'interno della nostra azienda e portare avanti questa missione è responsabilità di ogni membro di Meta." - Michel Protti, Chief Privacy Officer for Product
La tutela dei dati e della privacy degli utenti è fondamentale per la nostra azienda e per la nostra vision per il futuro. Per garantirla, perfezioniamo continuamente il nostro programma di privacy e i nostri prodotti per venire incontro ad aspettative sempre nuove e sviluppi tecnologici. Inoltre lavoriamo con legislatori ed esperti di protezione dei dati per individuare soluzioni a sfide sempre nuove, senza mai smettere di condividere i nostri progressi.