- 產品首席隱私長 Michel Protti
我們以內部治理架構為基礎處理隱私問題,這些架構會將隱私及資料使用標準融入到整個公司營運中。外部則由獨立管理機構監督我們的隱私計畫和作法。
在持續整合公司隱私問題的同時,我們將隱私團隊融入產品小組中,他們會透過提供各個產品和業務小組的專業知識,讓您對隱私考量有更深的瞭解。這些團隊會擔負我們所有產品的第一線隱私責任。
由產品首席隱私長 Michel Protti 帶領的「Meta 隱私和資料處理作法」團隊由數十個技術和非技術團隊組成,致力於處理隱私問題和以負責任的方式處理資料。
「Meta 隱私和資料處理作法團隊」是公司努力維護全面隱私計畫的核心。該團隊的任務(在 Meta 中灌輸負責任的資料處理作法)是透過確保用戶瞭解 Meta 使用其資料的方式,並相信我們的產品會負責任地使用他們的資料來完成這項工作。
「Meta 隱私和資料處理作法團隊」僅僅只是公司內眾多需對隱私問題負責的組織之一。Meta 中不同組織中的員工和角色(包括公共政策及法律等)多到數不清,這些員工正努力地將隱私問題帶入到公司營運中的所有面向。保護隱私安全是極度跨部門的工作,而我們認為 Meta 的每一位員工都有責任肩負這項任務。
由政策部門副總裁暨首席隱私長 Erin Egan 帶領的「隱私和資料政策」團隊會帶領我們參與隱私方面的全球公共討論(包括全新的監管架構),並確保我們在設計產品和使用資料時,有將世界各地政府和專家的意見納入考量(包括隱私審查程序的過程)。
在我們致力於改善產品並以創新方式處理隱私問題的同時,也會遵守最高標準,並與決策者和資料保護專家合作,以確保符合他們的期望。因此,「隱私與資料政策」團隊會透過各種諮詢機制諮詢以下團體,其中包括:
我們也會邀請全球頂尖隱私專家討論各種迫切的隱私政策主題,推出定期對話系列內容。
「隱私法規」團隊參與了我們計畫的制定和目前的執行工作,並針對隱私審查程序中的法律規定提供諮詢服務。
「隱私委員會」是 Meta 董事會的一個獨立委員會,每一季會進行一次會議,以確保我們有遵守我們的隱私承諾。該委員會是由經驗豐富且擔任過類似監督角色的獨立董事所組成。
他們會定期收到我們獨立隱私審核員提供的隱私計畫和 FTC 指令遵循狀況簡報,這些審核員的工作是持續審查我們的隱私計畫並進行回報。
「內部稽核」會針對我們隱私計畫和支持的控制架構的整體運作狀況提供獨立保證。
隱私教育確保隱私問題是 Meta 每位員工的責任,其中會推動持續不間斷的隱私學習和教育課程,這些課程涵蓋了培訓與內部隱私意識宣導活動。
我們隱私教育措施中的一個核心環節是透過我們的隱私培訓來提供的。我們的隱私培訓涵蓋了隱私中的基本要素,旨在協助 Meta 每位員工培養識別和考量隱私風險的能力。我們的年度隱私培訓和新員工/臨時員工隱私培訓課程在其網路學習模式的優勢下,提供了符合 Meta 業務營運模式的隱私考量情景範例,並包含一項評估作業,會測試員工對相關隱私概念的理解程度。每年會更新和安排這些培訓課程,以確保納入核心概念以外的相關資訊。
除了我們的基礎必要培訓課程外,我們還保留了 Meta 安排的所有已知隱私培訓課程目錄,這些課程涵蓋與特定角色的員工有關的主題。我們將會持續投資「隱私培訓」計畫,因為不停提供隱私和資料主題方面的學習機會是在 Meta 灌輸負責任資料處理作法的關鍵。
定期與員工進行溝通是我們促進隱私教育的另一種方式。除了「隱私」培訓課程外,我們還會透過內部溝通管道、隱私領導最新消息、內部問答會議及專屬「隱私週」持續提供隱私內容。
在專屬「隱私週」期間,我們能促使公司之間對隱私問題的重視,活動有內部和外部的講者,並透過在當週出現的吸睛內容和發生的活動來強調重要的隱私概念和優先事項。
許多我們所面臨的隱私問題並沒有簡單或明確的答案,而傾聽公司外專家的建議是著手應對這類難題的最佳作法。我們會邀請外部專家與我們整個團隊討論他們在 Meta 的工作,以及對隱私的觀點。這是我們整個隱私團隊定期傾聽各種隱私專家對重要和複雜主題想法的機會。
當我們參與「資料隱私日」等外部隱私活動時,我們會透過內部管道來提升內部的意識和參與度,以確保所有人員都有機會參與其中並瞭解隱私問題。
我們打造了「隱私風險管理」計畫,以評估我們蒐集、使用、分享和儲存用戶資料方式的隱私風險。我們藉此找出風險主題、提升「隱私計畫」,以及為日後的法規遵循措施做好準備。
我們設有防護機制(包括程序及技術控制項)來應對隱私風險問題、滿足隱私期待,以及履行監管義務。
我們成立了隱私紅隊演練團隊,負責主動測試程序和技術,以找出潛在的隱私風險。「隱私紅隊演練團隊」假扮試圖規避我們的隱私控制項和防護機制來竊取機密資料的外部人士,以提供更令人安心的 Meta 隱私處理作法。
無論我們的緩解和防護機制多麼強大,都一樣需要仰賴一個程序來(1)識別事件何時可能會損害 Meta 負責維護的資料的機密性、完整性或可用性、(2)對這些狀況進行調查,以及(3)採取必要措施來應對我們所發現的缺口。
我們的「事件管理」計畫運行於全球,以監督我們識別、評估、緩解及補救隱私事件的過程。雖然事件管理程序是由「隱私和資料處理作法」團隊領導,但是 Meta 中的每位人員都對隱私事件負有責任。公司中的各個團隊(包括法律及產品團隊)皆扮演著重要的角色。我們會持續投入時間、資源及人力來打造一個持續演進及改進的多層計畫,下方我們將特別介紹三項反映出我們作法的要素。
我們會採用分層作法來保護用戶及其資訊的安全:實作多項防護措施來擷取錯誤。鑑於 Meta 的運作規模,我們在打造和部署各種自動化工具方面投入了大量時間和人力,這些工具旨在協助我們盡可能在早期迅速識別並補救潛在的隱私事件。經由這類自動化系統偵測出的事件會被即時標示,以便促使我們迅速進行應對,並在某些情況下使問題自我進行補救。
當然,無論我們的自動化系統進化到什麼程度,員工的監督和認真的態度始終會在協助主動識別和補救事件的過程中起到關鍵的作用。我們的工程團隊會持續檢查我們的系統,以便在問題對用戶產生影響前先找出並修正事件。
我們自 2011 年以來便執行了一項抓漏獎勵方案計畫,外部研究人員可以透過向我們回報潛在安全漏洞來協助我們提升產品和系統的安全和隱私。這項計畫有助於我們擴大偵測工作範圍並以更快的速度排除問題,藉此進一步保護社群的安全,而我們支付給合格參與者的獎勵會促使他們從事更高品質的安全性研究。
過去 10 年中有超過 50,000 名研究人員加入了這項計畫,且約有來自 107 個國家/地區的 1,500 名研究人員曾獲得抓漏獎勵。這些研究人員中有一部分的人自此便加入了 Meta 的帳號安全和工程團隊,並持續他們保護 Meta 社群安全的任務。
第三方指的是與 Meta 往來但不歸 Meta 所有或管理的外部合作夥伴。這類第三方通常分成以下兩大種類:一種是為 Meta 提供服務(例如提供網站設計支援的廠商,下稱「第三方服務供應商」),而另一種是透過我們的平台建立其業務(例如應用程式或 API 開發商)。為降低第三方獲得個資存取權限所帶來的隱私風險,我們制定了專屬的第三方監督和管理計畫,該計畫負責監督第三方的風險,且會實作合適的隱私防護措施。
我們為服務供應商制定了一套第三方隱私評估程序,以評估和降低 Meta 的隱私風險。我們的程序會要求這些服務供應商也必須遵守含有隱私防護措施的合約內容。我們對供應商進行的監控和重新評估措施取決於他們的風險概況,且我們會依照風險概況在適當情況下決定因違規而需採取的執法動作(包括終止合約)。
我們制定了一項正式程序,來對違反其隱私或安全義務的第三方強制執行規定並終止合約。這項程序涵蓋標準和技術機制,可在我們的平台上支援落實更好的開發商作法,包括:
我們的「外部資料濫用」團隊由 100 多位員工組成,他們致力於偵測、調查及封鎖涉及資料抓取的行為模式。資料抓取是自動從網站或應用程式蒐集資料的行為(在獲授權或未獲授權的情況下)。未經我們同意即使用自動化系統存取或蒐集 Meta 平台資料的行為違反我們《服務條款》的規定。
為協助用戶瞭解我們如何對抗未經授權的資料抓取行為,我們會持續分享我們為防止有人在平台上濫用資料所採取的處置措施的最新資訊,並分享用戶保護其資料安全的最佳方式。
我們未來打算繼續公佈更多有關我們對資料抓取行為的作法的資訊,同時就我們為應對未經授權的資料抓取行為所採取的處置持續提供最新資訊。
我們對基礎設施和相關工具投入了資金和人力,讓抓取程式更難以從我們的服務中蒐集資料;若不幸讓對方得逞,也可使其更難以利用這些資料。速率限制和資料限制都是這些投資的實際例子。「速率限制」會限制用戶在特定時間內與我們產品互動的次數,而「資料限制」則會防止用戶取得多於正常使用產品情況下所需的資料。
我們在發現未經授權的資料抓取通常涉及猜測或購買內部產生的用戶和內容識別資料之後,就改變了這些識別資料的使用方式。此外,我們也打造以化名形式處理的全新識別資料,讓抓取程式更難以猜測和反覆存取資料,以及建立資料連結,進而協助防止未經授權的資料抓取。
我們每天在 Facebook 和 Instagram 上都會擋下數十億次未經授權的可疑資料抓取行為。我們會對未經授權的抓取程式採取各種處置措施,其中包括停用帳號,以及要求託管抓取資料的公司刪除該資料。從 2020 年 5 月至 2022 年 11 月,負責團隊已完成超過 1000 項調查,並實行 1200 多次的強制處分。
「隱私審查」程序是 Meta 開發全新和新版產品、服務和作法的核心環節。我們會透過此程序評估全新和新版產品、服務和作法將會如何使用和保護資料。我們會努力識別涉及蒐集、使用或分享個資的潛在隱私風險,並針對這類風險制定緩解機制。此程序的目標是針對社群將我們產品和服務的優勢最大化,同時提前識別並減少任何潛在風險發生的機會。這是一項跨部門的協作程序,由我們的「隱私審查」團隊率領,搭配由法律和政策方面的內部隱私專家組成的專門小組,以及具有產品、工程、法規、帳號安全及政策背景的跨部門團隊共同完成。此小組負責做出「隱私審查」決策和提供建議。
在此程序中,跨部門團隊會評估與計畫相關的潛在隱私風險,並確定計畫開始前是否需要進行任何變動,以掌控住這類風險。若跨部門團隊成員在必須進行的變動方面沒有達成共識,則該團隊會上交中央領導審查;若需要解決方案,則會進一步提交給執行長。
我們透過「隱私審查」程序推動的全新或改版產品、服務或作法發展會以內部隱私期待為依據,其中包括:
我們也投資技術審查和相關工具,以支援「隱私審查」程序的大規模運作:
- 產品總監 Naomi Gleit
我們打造和持續更新產品時以保護用戶隱私為主。我們實現的方式是打造預設設定和控制項,讓用戶能輕鬆地設定自己最能接受的隱私程度,同時也將隱私問題列為新產品開發方式的首要考量。
Meta 對重視隱私的平台的願景中,認為用戶應能夠在安全的情況下與他人進行私密交流。我們對於提供用戶與親朋好友進行私密交流的權利非常重視,讓他們不需要擔心有人會查看他們的私密對話。
我們目前在 WhatsApp、Messenger 及 Instagram Direct 訊息(下稱「私訊」)中提供私密交流的功能。WhatsApp 中的端對端加密技術確保只有您與收件人可以讀取或聽取訊息內容,其他中間人都無法讀取或聽取。而在 Messenger 和 Instagram 私訊中,您可以選擇透過端對端加密技術來保護您和聊天對象的專屬訊息安全。
我們在過去一年中發佈了 Messenger 選用端對端加密聊天室的其他功能。此外,在 Messenger 方面,我們也宣佈開始測試安全訊息儲存和預設端對端加密功能。我們已擴展 Instagram 私訊選用端對端加密功能的使用範圍,2022 年初優先開放烏克蘭使用。
我們期望日後版本的 Messenger、Instagram 私訊及 WhatsApp 能夠成為人們在 Meta 網路上的主要交流方式。我們會將重心放在這類應用程式的速度和使用容易度上,並讓用戶能夠在更安全的情況下進行私密對話(包括端對端加密技術)。我們預計會加入更多種讓用戶與朋友和社團進行私密互動的方式。我們還會在 Meta 提供幾種通訊平台,以更多社交、更少私人空間的形式將人們聚在一起,例如 Facebook 和透過 Quest 裝置或 Horizon Worlds 進入的元宇宙、Facebook 社團成員之間透過社群聊天室進行的對話,或一起在直播串流中觀看影片。部分平台可能會允許用戶依據其個人偏好來自訂,或要求額外的整合措施來確保符合《社群守則》的規定。
我們很高興能夠為超過 20 億位的使用者提供這項功能,讓他們自行選擇保護隱私的方式。用戶應有權利選擇打造個人專屬體驗,而我們有責任在用戶與朋友通訊時為用戶提供最安全的私密訊息收發體驗,進而設立明確且全面的隱私作法。
我們在 WhatsApp 和 Messenger 推出了使用限時訊息的選項。在一對一對話中,任何一方都能開啟或關閉限時訊息;在群組對話中,只有管理員可以控制此選項。
意識到年輕用戶的獨特隱私需求後,我們的產品團隊便對青少年的隱私問題特別關注。我們的目標是在與家長、主管機關、決策者及公民社會專家進行協調和協商後,提供尊重使用這類服務的年輕用戶最大利益的服務。
我們在過程中採用了好幾種方式,以便在提供年輕用戶 Meta 產品利益的同時保護好他們的安全,以及確保產品在一般情況下具備適齡措施之間取得完美平衡。
我們最近針對青少年隱私的工作包括考慮在 Facebook 和 Instagram 上根據年齡使用不同的預設設定,讓潛在的可疑帳號更難以找到年輕受眾,並限制廣告主可用來鎖定年輕人作為廣告目標受眾的選項。我們已開始測試新的隱私保護方式來確保用戶的年齡正確,與 Yoti 合作讓特定區域和適用情況的用戶使用臉部年齡估算技術驗證其年齡。此外,我們也在 Instagram 和 Quest 上推出了家庭中心,其中包含我們有史以來第一次推出的監護體驗,運用家長監護工具及由專家背書的教育資源,來協助家長和監護人進一步瞭解其青少年子女的網路體驗。在產品開發過程中,我們透過 TTC Labs 的全球共同設計計畫直接與青少年、家長、監護人和專家交流和合作,並發佈展現該全球計畫中的重要發現的產業報告。針對年紀最輕的用戶,兒童版 Messenger 會提供適齡的訊息和通訊體驗,讓家長有權監控並審視其子女動態的各個面向。
我們希望年輕用戶能夠享受 Meta 產品的樂趣,同時確保我們永遠不會損害他們的隱私和安全。我們將會持續傾聽年輕用戶、家長、立法者和其他專家的意見,以打造適合年輕用戶且受家長信任的產品。
Meta 的全新虛擬實境頭戴式裝置 Meta Quest Pro 導入向內的感應器,可促進更好的溝通品質和舒適度、強化的表達功能,以及提供更深度的沉浸體驗。這類感應器可發揮的其中一項功能就是眼動追蹤。在 Meta Quest Pro 眼動追蹤同意流程的必要設計過程環節中,我們諮詢了隱私倡導者,以針對選擇使用畫面的設計和語言,以及針對這些功能在系統和應用程式層級提供選擇使用的隱私控制項的計畫,尋求意見回饋。請參閱推出 Meta Quest Pro 時發表的白皮書,以深入瞭解我們以負責任態度設計眼動追蹤功能的作法,以及與全球研究與政策社群合作的成果。
我們在 2022 年時發佈了一份白皮書,其中探討在提升產品安全、帳號安全和產品信譽的同時,必須考量的隱私原則。為了說明我們如何實際地思考這些隱私原則,我們分享了五個個案研究,詳細地說明我們在所有的家族應用程式中面臨的一些最重大的網路安全和帳號安全挑戰。舉例來說,和我們如何減少 Facebook 和 Instagram 上仇恨言論有關的個案研究,說明了盡可能減少仇恨言論是我們打造自動化系統來偵測此類違反《社群守則》行為的基本隱私原則,因為我們認為在政策執行時,透過主要使用內容資料(而非使用個人帳號資料)即可達成移除仇恨言論的目標。
我們透明的溝通工作任務包含提供外部教育資訊來讓用戶進一步瞭解並意識到我們的作法,並確保資訊便於取得和查找。
為了向用戶提供更高的資訊透明度和更多控制權,我們開發了數款隱私工具,以協助用戶瞭解他們分享了哪些內容和他們的資訊的使用情形,包括:
- 產品首席隱私長 Michel Protti
「Meta 隱私和資料處理作法」與「基礎架構」團隊密切合作,打造融入隱私意識的基礎架構,使用可靈活調整且創新的基礎設施解決方案,工程師打造產品時就能更輕鬆地遵循隱私規定。這項投資也會讓我們越來越常使用自動化系統(而非主要仰賴人力和手動程序),來確認我們履行隱私責任。
我們在整個 Meta 都部署了創新的工具和技術,以主動減少蒐集和使用的用戶資料量。
我們致力於在 Meta 灌輸良好的產品和工程實踐作法,以確保我們在不影響用戶體驗的情況下適當地移除未充分運用的功能。舉例來說,我們推出了可讓工程師更安全地刪除產品和程式碼的工具,而且不會意外造成故障。這些工具會採用自動化系統和智慧決策邏輯,以找出需要工程師手動刪除的項目。此外,我們也配合產品對用戶的實用性蒐集和保存資料。我們基於使用率偏低的緣故,移除了 Facebook 上幾個以定位為主的功能,包括「敏感個人檔案欄位(Sensitive Profile Fields)」、「定位紀錄」、「背景定位」、「天氣快報」和「周邊的朋友」。這些步驟可讓 Meta 在不再需要資料後將資料刪除,以及避免蒐集不必要的資料。
除了移除產品和強化刪除作法之外,我們還持續投資隱私強化技術(PET,以先進加密和統計技術為基礎的技術),這項技術有助於將我們所蒐集、處理及使用的資料量降至最低。我們的「應用隱私技術」團隊專門打造可供 Meta 各團隊使用的 PET,專注於因應關鍵領域,例如蒐集資料時將其去識別化,以及讓團隊在其產品和服務中使用端對端加密技術。
舉例來說,我們的匿名憑證服務(ACS,是我們近期開放原始碼的 PET)可讓客戶針對其服務驗證用戶,無須揭露用戶的真實身分。我們運用匿名憑證技術建立儲存庫,以方便工程師部署此功能,以幫助減少詐騙行為,同時仍保護隱私和盡量減少蒐集的資料量。
若要制定能夠適應不斷變化的隱私期望的技術解決方案,首先必須完成重要的基礎技術工作(包括改善我們在其生命週期中管理資料的方式)。其中一個例子是我們為加快並加強用戶要求的資料刪除作法所完成的龐大工作。
用戶期望當他們要求刪除其資料時,他們的資料就會被正確地刪除。但是,目前業界中的資料刪除作法非常繁瑣,開發人員必須手動編寫重複的程式碼,來說明每次對產品的更新或變更,並確保所有刪除邏輯都仍可以正常運作。現代分散式資料儲存空間的複雜架構也導致錯誤有可能會隨時出現。
我們已建立了一個架構和基礎設施,旨在降低開發人員過度以人工方式進行作業而導致潛在錯誤的風險。工程師會經由預期的刪除行為(例如當用戶刪除貼文時,也會刪除所有留言)對所蒐集的資料進行註解,而我們的架構和基礎設施採用高可靠性標準處理必須跨多個資料儲存空間運行的刪除程序。讓工程師能夠順利使用此技術基礎設施來輕鬆實作刪除程序,也有助於我們確保能夠在產品開發初期解決資料刪除的問題。
我們每天已透過此基礎設施處理了數十億筆的資料刪除程序,也正在投資讓 Meta 的所有系統使用此基礎設施。
AI 能夠為個人化、推薦及排序功能等後端服務提供支援,有助於為使用我們產品和服務的用戶提供順暢的可自訂體驗。Meta 認為我們必須透過相關工具和資源來協助用戶瞭解 AI 如何運作並形塑他們的產品體驗。我們在下方特別說明幾個例子。
AI 系統卡片
我們瞭解必須認識各個受眾類型,才能清楚說明我們的人工智慧系統。用戶、機器學習開發商和 AI 決策者有不同的 AI 資訊透明度與可解釋性相關需求。AI 系統層級的資訊透明度是我們研究提升可解釋性的其中一種方式。我們透過發佈「AI 系統卡片」原型工具來分享此過程中的某個步驟,該工具旨在對 AI 系統的基礎架構進行深入瞭解,並協助進一步說明 AI 如何依據個人的紀錄、偏好及設定等進行運作。我們開發的測試版「系統卡片」(會繼續進行測試)是專為 Instagram 動態消息排序功能所設計。系統卡片會分析排序過程,該過程會將用戶追蹤帳號中其尚未看過的貼文根據該位用戶對其產生興趣的機率來進行排序。我們也推出不同類型系統的「AI 系統卡片」社群商務圖表,該卡片能透過 Meta 的最大創作者群找出商務趨勢。
我們目前正在研究和測試大量建立「AI 系統卡片」的能力,以打造可重複執行的程序,藉此說明複雜的 AI 系統,讓用戶深入瞭解日常使用的技術運作機制。
提高 AI 的可解釋空間是跨產業、跨學科的對話。各家企業、主管機關及學者都在測試透過各種指導和架構形式來進一步傳達 AI 運作機制的方式,讓一般人能夠瞭解更多 AI 相關知識。由於 AI 系統非常複雜,因此制定能夠在此類說明中持續滿足用戶資訊透明度需求以及追求簡易性的文件內容,將會既重要又具挑戰性。因此,資料表、模型卡片、系統卡片及事實清單皆有不同的受眾族群。我們已透過 Open Loop Program 完成協作專案,與開發商和主管機關共同制定並測試 AI 資訊透明度與可解釋性的政策原型,該原型著重於不同受眾的需求,以及在產品體驗過程中,受眾可能想要的資訊透明度。我們也與 TTC Labs 合作發佈「以用戶為中心的演算法可解釋性作法」報告。
在此過程中,我們會持續專注於對多個受眾群有所幫助的實質 AI 資訊透明度計畫。我們希望專家和非專業人士能夠理解「AI 系統卡片」,且卡片能夠以可重複且可擴展的方式,為 Meta 提供一個獨特的深入視角,來瞭解 AI 系統到人工介面的複雜環境。提供技術性準確的架構、能夠捕捉到 AI 系統在 Meta 規模之下運作的差異之處,以及讓一般使用我們技術的用戶容易理解的特性,是一種非常微妙的平衡狀態,當我們持續推動該領域中的最新技術時尤為重要。
「維護隱私安全是全公司會持續進行的集體投資,也是 Meta 每位員工推動使命的責任。」- 產品首席隱私長 Michel Protti
保護用戶的資料與隱私對我們的企業和未來願景至關重要。因此,我們會持續完善和改進我們的隱私計畫與產品,以應對瞬息萬變的期待和技術發展、與決策者和資料保護專家合作找出前所未有挑戰的解決方案,以及依目前方式分享進度。