– Michel Protti, Chief Privacy and Compliance Officer, Product
Unsere Bemühungen im Bereich Datenschutz bauen auf internen Governance-Strukturen auf, mit denen Datenschutz- und Datennutzungsstandards in allen Bereichen des Unternehmens verankert sind.
Um den Datenschutz im gesamten Unternehmen stärker zu integrieren, haben wir Datenschutzteams innerhalb der einzelnen Produktgruppen eingerichtet. Sie sollen das Verständnis für Datenschutzaspekte durch das Einbringen von Fachwissen in jeder Produktgruppe vertiefen. Diese Teams sorgen an vorderster Front für die Einhaltung des Datenschutzes bei unseren Produkten. In einem zuverlässigen und partnerschaftlichen Prozess denken wir Datenschutzanforderungen in allen Produkt-Roadmaps von Meta von Anfang an mit. Zweimal im Jahr widmen unsere Produktteams etwa 6 bis 8 Wochen dem Datenschutz-Roadmapping. Dabei entwickeln sie neue und verbesserte Datenschutzmaßnahmen.
Das Product Compliance and Privacy Team unter der Leitung von Michel Protti, Chief Privacy and Compliance Officer, Product, umfasst dutzende einzelne Teams, sowohl im technischen als auch nicht technischen Bereich, die das Unternehmen zu Datenschutzstrategien beraten.
Bei unseren Bemühungen für ein umfangreiches Datenschutzprogramm spielt das Product Compliance and Privacy Team eine zentrale Rolle. Stets geleitet von seiner Mission – verantwortungsbewusste Datenpraktiken bei Meta zu stärken und Innovationen zu ermöglichen – sorgt das Team dafür, dass Nutzer*innen verstehen und darauf vertrauen, dass ihre Daten in den Produkten und Diensten von Meta verantwortungsvoll verwendet werden.
Aber das Product Compliance and Privacy Team ist nur eines von vielen in unserem Unternehmen, die sich um den Datenschutz kümmern. Bei Meta arbeiten Tausende Menschen in verschiedenen Rollen und Abteilungen daran, alle Bereiche unseres Unternehmens auf den Datenschutz auszurichten. Dazu zählen etwa Teams für die öffentliche Ordnung, eine Rechtsabteilung und Produktteams. Wir wollen beim Schutz der Privatsphäre alles richtig machen. Dazu müssen alle an einem Strang ziehen, denn jede*r einzelne trägt bei Meta Verantwortung für den Datenschutz.
Das Privacy and Data Policy Team unter der Leitung von Erin Egan, Vice President and Chief Privacy Officer, Policy, lenkt unsere globale Strategie in der öffentlichen Diskussion über den Datenschutz und neue rechtliche Bestimmungen. Das Team sorgt dafür, dass das Feedback von Regierungen und Expert*innen auf der ganzen Welt in unser Produktdesign und unsere Praktiken bei der Datennutzung einfließt.
Deshalb berät sich das Privacy and Data Policy Team regelmäßig mit diesen Stakeholder*innen und nutzt dazu verschiedene Konsultationsmechanismen. Im Jahr 2024 zählten dazu:
Wir unterstützen und beteiligen uns an Branchenkonferenzen und anderen Veranstaltungen zur Förderung des Datenschutzes und zum Austausch neuer Erkenntnisse in Sachen Datenschutzpraktiken. Im Jahr 2024 haben wir unsere neuesten Datenschutztechnologien auf der USENIX Conference on Privacy Engineering Practice and Respect und auf den IAPP-Konferenzen vor Expert*innen aus den Bereichen Datenschutz und Governance aus aller Welt vorgestellt. Diese Konferenzen bieten uns die Gelegenheit, uns mit Expert*innen auszutauschen und von ihnen zu lernen. So können wir ihre Perspektiven bei der Entwicklung von Produkten und Maßnahmen berücksichtigen.
Wir arbeiten außerdem im Rahmen von Beratungsgremien mit verschiedenen Expert*innen zusammen. Diese Zusammenarbeit haben wir 2024 erweitert. Diese Gremien unterstützen Meta bei der Entscheidungsfindung zu neuen und komplexen Fragen, mit denen wir bei der Entwicklung innovativer Technologien konfrontiert werden. Im Jahr 2024 haben wir uns mit Gremien zu folgenden Themen beraten:
Das Privacy Legal Team nimmt eine wichtige Rolle bei der Ausarbeitung und laufenden Umsetzung unseres Programms ein. Es berät uns bei unserer Datenschutzprüfung zu den gesetzlichen Vorgaben.
Das Privacy and Product Compliance Committee ist ein unabhängiges Komitee innerhalb des Vorstandes. Es kommt mindestens einmal im Quartal zusammen und ist für die Aufsicht über den Datenschutz und die Produkt-Compliance zuständig. Das Komitee besteht aus unabhängigen Führungskräften, die langjährige Erfahrung aus ähnlichen Aufsichtsgremien mitbringen. Mindestens einmal im Quartal werden sie über verschiedene Themen informiert, darunter die aktuellen Richtlinien weltweit, den Stand unseres Datenschutzprogramms sowie die aktuelle unabhängige Beurteilung unseres Datenschutzprogramms durch Dritte.
Interne Audits stellen eine unabhängige Beurteilung des Zustands unseres Datenschutzprogramms und des ihm zugrunde liegenden Kontrollrahmens dar.
Um zu gewährleisten, dass jede*r bei Meta versteht, welchen Beitrag er*sie zum Datenschutz leistet, bilden wir unsere Mitarbeitenden fortlaufend zum Thema Datenschutz weiter, zum Beispiel mit Schulungen und internen Informationskampagnen.
Eine zentrale Komponente unseres Ansatzes sind unsere Datenschutzschulungen. Unsere Datenschutzschulungen decken die grundlegenden Elemente des Datenschutzes ab und sollen allen Mitarbeiterenden von Meta helfen, Datenschutzrisiken zu erkennen und verantwortungsvolle Entscheidungen zu treffen, um solche Risiken zu mindern. So können wir nicht nur stolz auf unsere Produkte sein, sondern auch auf den Entwicklungsprozess. Besonders wichtig ist uns dabei, dass unsere Mitarbeitenden sich als erste Verteidigungslinie verstehen, um Datenschutzrisiken zu minimieren und zu vermeiden.
Unsere jährliche Datenschutzschulung sowie unsere Datenschutzschulungen für neue Mitarbeitende und befristet Beschäftigte zeigen anhand realer Beispiele mögliche Datenschutzrisiken im Geschäftsbetrieb auf. Alle Schulungen beinhalten einen Test, in dem das Verständnis der Mitarbeitenden für die relevanten Datenschutzkonzepte überprüft wird. Diese Schulungen werden jährlich aktualisiert und durchgeführt, damit alle Mitarbeitenden zusätzlich zu den Kernkonzepten auch relevante neue Informationen zum Datenschutz erhalten.
Zusätzlich zu diesen obligatorischen Datenschutzschulungen führen wir einen Katalog aller existierenden Datenschutzschulungen, die bei Meta durchgeführt wurden. Diese umfassen weitere Themen und Risiken.
Auch durch den regelmäßigen Kontakt mit unseren Mitarbeitenden schaffen wir ein unternehmensweites Bewusstsein für Datenschutz. Neben den Datenschutzschulungen bieten wir unseren Mitarbeitenden zusätzliche Inhalte und Informationen zum Thema an: über interne Kommunikationskanäle, bei Updates von Meta-Führungskräften, bei unternehmensinternen Q&A-Sessions oder im Rahmen unseres Privacy Days.
Wir nutzen Ereignisse wie unseren Data Privacy Day, um unternehmensweit das Bewusstsein für den Datenschutz zu steigern. Mit Veranstaltungen und Vorträgen von Meta-Führungskräften beleuchten wir zentrale Datenschutzkonzepte und vermitteln mit ansprechenden Inhalten wichtige Prioritäten.
Es ist die Aufgabe unseres speziellen Teams, dafür zu sorgen, dass sich das Unternehmen an Datenschutz- und Datennutzungsbestimmungen weltweit hält. Deshalb haben wir einen umfassenden Prozess entwickelt, der uns hilft, externe Datenschutzverpflichtungen zu ermitteln und darauf zu reagieren. Dieser Prozess bietet dem Unternehmen einen vollständigen Überblick über alle eingehenden Datenschutzverpflichtungen und definiert unsere Reaktion darauf.
Wir haben ein Risikomanagement-Programm entwickelt, um Datenschutzrisiken bei der Erfassung, Verwendung, Weitergabe und Speicherung von Nutzungsdaten zu ermitteln und zu bewerten. Dieses Programm nutzen wir, um potenzielle Risikobereiche zu identifizieren, unser Datenschutzprogramm zu verbessern und uns auf zukünftige Compliance-Initiativen vorzubereiten.
Für den Umgang mit Datenschutzrisiken haben wir entsprechende Schutzmaßnahmen entwickelt, beispielsweise Prozesse und Kontrollmechanismen. Als Teil dieser Arbeit lassen wir intern Gestaltung und Effektivität dieser Schutzmaßnahmen zum Minimieren von Datenschutzrisiken evaluieren.
Wir haben eine zentralisierte Issues-Management-Funktion eingerichtet, damit Datenschutzprobleme leichter erkannt und behoben werden können. Diese Prozess umfasst den gesamten Kreislauf des Umgangs mit Datenschutzproblemen, von der Erfassung und Einstufung über das Planen von Abhilfemaßnahmen bis hin zur Lösungsfindung und abschließenden Dokumentation.
Wir haben ein sogenanntes Privacy-Red-Team eingerichtet, dessen Aufgabe es ist, unsere Prozesse und Technologien proaktiv zu testen, um potenzielle Datenschutzrisiken zu identifizieren. Das Privacy-Red-Team nimmt dabei die Rolle einer externen oder internen Partei ein, die versucht, unsere Kontrollmechanismen und Schutzmaßnahmen für den Datenschutz zu umgehen. So können wir proaktiv Bereiche erkennen, in denen wir unsere Kontrollumgebung noch optimieren können.
Unabhängig davon, wie robust unsere Schutzmaßnahmen sind, brauchen wir auch ein Verfahren, mit dem wir (1) feststellen können, wann ein Ereignis die Vertraulichkeit, Integrität und Verfügbarkeit von Daten gefährdet, für die Meta verantwortlich ist. In einem solchen Fall müssen wir (2) die Situation untersuchen und (3) alle erforderlichen Schritte unternehmen, um festgestellte Lücken zu schließen.
Unser Programm zum Störungsmanagement agiert weltweit und betreut die Prozesse, mit denen wir Datenschutzvorfälle identifizieren, bewerten, minimieren und beheben. Zwar leitet das Privacy- und Data-Practices-Team unser Störungsmanagement, aber bei Datenschutzvorfällen ist jede*r einzelne Meta-Mitarbeiter*in verantwortlich. Wichtige Rollen spielen hier unsere einzelnen verantwortlichen Teams, etwa aus der Rechts- und Produktabteilung. Wir investieren auch weiterhin Zeit, Ressourcen und Energie, um ein komplexes Programm aufzubauen, das sich ständig weiterentwickelt und anpasst. Im Folgenden stellen wir die drei wichtigsten Aspekte unseres Ansatzes vor.
Unser Ansatz für den Schutz unserer Nutzer*innen und ihrer Informationen ist mehrstufig. Ein Bestandteil ist die Umsetzung von Schutzmaßnahmen, mit denen Fehler proaktiv beseitigt werden sollen, bevor sie zum Problem werden. Als global agierendes Unternehmen haben wir stark in die Entwicklung und den Einsatz einer breiten Palette von automatisierten Tools investiert, um potenzielle Sicherheitsrisiken so früh und so schnell wie möglich zu erkennen und zu beseitigen. Diese automatisierten Systeme sind so konzipiert, dass sie Vorfälle in Echtzeit erkennen, um so schnell reagieren zu können.
Doch egal wie leistungsfähig die Systeme künftig sein werden – wir sind immer auf die Kontrolle und die Sorgfalt unserer Mitarbeiter*innen angewiesen, um Vorfälle proaktiv zu erkennen und Maßnahmen zu ergreifen. Unsere Entwicklungsteams überprüfen unsere Systeme regelmäßig, um Datenpannen zu erkennen und zu beheben, noch bevor Nutzer*innen davon betroffen sind.
Seit 2011 gibt es Facebooks Bug-Bounty-Programm. Dabei helfen externe Sicherheitsforscher*innen, die Sicherheit und den Datenschutz unserer Produkte und Systeme zu verbessern, indem sie uns potenzielle Sicherheitsrisiken melden. Die Forschungsergebnisse können zu weiteren Untersuchungen und, falls nötig, zu Abhilfemaßnahmen durch Meta führen. Dank dieses Programms können wir Probleme schneller aufspüren und beheben, um unsere Nutzer*innen zu schützen. Durch die Belohnung, die berechtigte Teilnehmer*innen erhalten, setzen wir Anreize für die Weiterentwicklung anspruchsvoller Sicherheitsforschung.
In den letzten 10 Jahren haben sich schon über 50.000 Personen an der Fehlersuche beteiligt. Etwa 1.500 von ihnen aus aller Welt haben in dieser Zeit eine Prämienzahlung erhalten.
Wir haben weitreichende Maßnahmen ergriffen, um die Daten unserer Nutzer*innen vor unberechtigtem Zugriff und anderen Risiken zu schützen. Sollte trotzdem einmal ein Vorfall auftreten, setzen wir auf Transparenz, um das Vertrauen in unsere Produkte, Services und Prozesse wieder zu stärken. Dementsprechend dient unser Störungsmanagement nicht nur dazu, Fehler zu beheben und daraus zu lernen – es definiert auch Schritte, um Nutzer*innen angemessen zu informieren. Das kann etwa durch einen Beitrag in unserem Newsroom oder Privacy Matters-Blog geschehen, auf dem wir über Themen berichten, die unsere Nutzer*innen betreffen. Bei Bedarf kooperieren wir außerdem mit Strafverfolgungsbehörden und anderen öffentlichen Stellen.
Drittanbieter sind externe Geschäftspartner von Meta, die nicht zu Meta gehören oder von uns betrieben werden. Die meisten Drittanbieter gehören zu einer von zwei Kategorien: Entweder sie stellen für Meta Dienstleistungen bereit (etwa Anbieter für die Website-Gestaltung) oder sie nutzen unsere Plattform für ihr Unternehmen (etwa App- oder API-Entwickler*innen). Bei Drittanbietern, die Zugriff auf Daten und personenbezogene Informationen erhalten, versuchen wir das Datenschutzrisiko mit einem speziellen Programm zur Überwachung und Verwaltung von Drittanbietern zu minimieren. Wir überwachen dabei, welche Risiken der Drittanbieter-Zugriff birgt, und setzen angemessene Datenschutzmaßnahmen um.
Wir haben ein Verfahren entwickelt, um den Datenschutz bei externen Dienstleistern zu beurteilen und mögliche Risiken zu minimieren. Die Dienstleister sind gemäß diesem Verfahren an Verträge gebunden, die den Schutz der Privatsphäre vorsehen. Ihr Risikoprofil entscheidet darüber, wie sie während der Zusammenarbeit überwacht werden. Dazu zählen eine Neubewertung und mögliche Sanktionen bei Vertragsverstößen, unter Umständen auch eine Beendigung der Zusammenarbeit.
Im Rahmen von Metas kontinuierlichem Engagement für ein sicheres und datenschutzorientiertes Entwickler*innen-Ökosystem haben wir neue Ressourcen und Initiativen auf den Weg gebracht, die eine verantwortungsvolle Datennutzung unterstützen und die Integrität unserer Plattform stärken sollen.
Hub für verantwortungsvolle Plattforminitiativen: Wir haben einen neuen Hub für verantwortungsvolle Plattforminitiativen eingerichtet, um Ressourcen zum Thema Datenschutz und Sicherheit bei externen Entwickler*innen zentral zu sammeln und damit unser Engagement für sichere und verantwortungsvolle Praktiken in Bezug auf Daten auf unserer gesamten Plattform zu stärken. Dieser Hub enthält Ressourcen und umfassende Anleitungen zu unseren Compliance-Programmen, zu verantwortungsvollen Entwicklungspraktiken und zu den Tools, die Entwickler*innen zur Verfügung stehen, um die Datenschutzstandards von Meta umzusetzen. Mit diesen Ressourcen zu unseren Richtlinien und verantwortungsvollen Plattformpraktiken können Entwickler*innen zu einem sicheren und transparenten Ökosystem beitragen.
Datenzugang und Erneuerung: Wir haben einen neuen konsolidierten Prozess für die Beantragung, Verwaltung und Erneuerung des Datenzugangs für Entwickler*innen eingeführt. Damit bekräftigen wir erneut unser Engagement für die Vereinfachung der Plattform und den Aufbau neuer Entwicklungstools. Im Rahmen der Erneuerung des Datenzugangs werden unsere externen Entwickler*innen einmal im Jahr einer Prüfung unterzogen, um die fortlaufende Einhaltung der Datenschutzstandards und der Plattformbedingungen von Meta zu gewährleisten. Bei dieser Überprüfung müssen alle Entwickler*innen ausdrücklich bestätigen, dass sie die Datenschutzstandards und Nutzungsbedingungen von Meta einhalten, und darlegen, wie und warum verschiedene Arten von Daten verwendet werden. Durch diese Vereinheitlichung möchten wir es unseren Entwickler*innen leichter machen, unsere Anforderungen zu erfüllen, und den Endnutzer*innen zuverlässige Sicherheit und einen soliden Datenschutz zu bieten.
Unser Anti-Scraping-Team widmet sich der Erkennung, Untersuchung und Blockierung von Verhaltensmustern, die mit nicht autorisiertem Scraping in Zusammenhang stehen. Scraping ist das automatisierte Erfassen von Daten von einer Website oder App und kann entweder autorisiert oder nicht autorisiert erfolgen. Die Verwendung von Automatisierungsfunktionen für den Zugriff auf oder die Erfassung von Daten von Metas Plattformen ohne unsere Erlaubnis stellt einen Verstoß gegen unsere Nutzungsbedingungen dar.
Wir investieren kontinuierlich in Infrastruktur und Tools, um es Personen, die Scraping verwenden, zu erschweren, Daten von unseren Diensten zu erhalten bzw. daraus Kapital zu schlagen, wenn es ihnen doch gelingt. Beispiele für diese Investitionen sind etwa Übertragungs- und Datenlimits. Übertragungslimits begrenzen die Anzahl der Interaktionen mit unseren Produkten innerhalb eines bestimmten Zeitraums. Datenbeschränkungen wiederum verhindern, dass Nutzer*innen mehr Daten erhalten, als sie für die normale Nutzung unserer Produkte benötigen.
Wir nutzen intern generierte Nutzer*innen- und Content-IDs, nachdem wir festgestellt haben, dass bei nicht autorisiertem Scraping solche IDs oft erraten oder gekauft werden. Außerdem verwenden wir neue, pseudonymisierte IDs, die das nicht autorisierte Scraping von Daten verhindern, indem sie es Scrapern erschweren, Daten zu erraten, zu verknüpfen und wiederholt darauf zuzugreifen.
Täglich blockieren wir Milliarden von Handlungen auf Facebook und Instagram, bei denen der Verdacht von unautorisiertem Scraping besteht. Zusätzlich haben wir eine Vielzahl von Maßnahmen gegen unautorisiertes Scraping unternommen: So haben wir Konten gesperrt oder Unternehmen, die gescrapte Daten nutzen, aufgefordert, diese zu löschen.
Die Datenschutzprüfung ist ein zentraler Bestandteil in der Entwicklung neuer und aktualisierter Produkte, Services und Praktiken bei Meta. Im Rahmen dieses Prozesses bewerten wir, wie Daten in neuen oder aktualisierten Produkten, Services und Praktiken verwendet und geschützt werden sollen. Jeden Monat überprüfen wir unternehmensweit im Durchschnitt 1.400 Produkte, Features und Praktiken in Bezug auf Daten, bevor sie ausgeliefert werden, um so etwaige Datenschutzrisiken abzuschätzen und zu mindern.
– Komal Lahiri, VP, Governance, Risk, and Compliance, Product
Ein abteilungsübergreifendes Team von Datenschutzexpert*innen bewertet die möglichen Datenschutzrisiken eines Projekts und ermittelt, ob vor dem Projektstart zusätzliche Änderungen notwendig sind, um diese Risiken zu mindern. Gibt es keine Übereinstimmung bei der Beurteilung der einschlägigen Risiken eines Produkts oder hinsichtlich der Vorschläge, wie diese zu minimieren sind, sieht der Prozess eine Eskalation zur weiteren Bewertung und Entscheidung vor, zunächst an die Führungsebene für Produkte und Richtlinien sowie letztendlich zum*zur CEO.
Die Entwicklung neuer oder aktualisierter Produkte, Services oder Vorgehensweisen im Rahmen der Datenschutzprüfung orientiert sich an unseren internen Datenschutzerwartungen. Dazu gehören:
Außerdem haben wir in Verifizierungsprüfungen und eine zentralisierte Plattform investiert, um die Datenschutzprüfung auch im großen Maßstab durchführen zu können:
– Michel Protti, Chief Privacy and Compliance Officer, Product
Durch Investitionen in neue Technologien haben wir erhebliche Fortschritte bei der Verbesserung unserer Datenschutz-Review gemacht. Insbesondere haben wir einen Entscheidungsrahmen auf Produktebene eingeführt, der die Kohärenz und Standardisierung unserer Reviews verbessert hat. Dieser Rahmen hat es uns ermöglicht, den Review-Prozess zu automatisieren und zu optimieren, indem wir auf frühere Reviews ähnlicher Projekte zurückgreifen und Datenschutzeinstellungen direkt in unsere Entwicklungstools einbinden. Dank dieser Änderungen können wir monatlich über 1.400 Launches überprüfen und dabei einheitliche Datenschutzstandards einhalten.
Wir werden auch weiterhin eine datenschutzorientierte Infrastruktur entwickeln, d. h. innovative und effiziente Strukturen innerhalb der Meta-Infrastrukturlösungen, die es Entwickler*innen leichter machen, bei der Entwicklung neuer Produkte die entsprechenden Datenschutzanforderungen zu berücksichtigen. Bei einer datenschutzorientierten Infrastruktur werden die Datenschutzvorgaben direkt in den Code eingebettet, damit alle Anforderungen automatisch erfüllt sind. So haben wir zum Beispiel „Policy Zones“ eingerichtet, die in unserer gesamten Infrastruktur gelten, um Daten nur für zulässige Zwecke zu verwenden und die Zwecke der Datenverarbeitung zu begrenzen. Eine datenschutzorientierte Infrastruktur ist nach wie vor von entscheidender Bedeutung für die Durchsetzung komplexer Zweckbeschränkungen bei gleichzeitiger Gewährleistung von Skalierbarkeit, Zuverlässigkeit und einer optimierten Entwickler*innen-Erfahrung.
Wir setzen innovative Tools und Technologien auf allen Meta-Plattformen ein, um die Menge an Nutzungsdaten, die wir erfassen und verwenden, proaktiv zu reduzieren. Außerdem investieren wir auch weiterhin in Datenschutztechnologien (Privacy-Enhancing Technologies, PETs), die auf komplexen Verschlüsselungsmethoden und statistischen Verfahren basieren. Dank dieser Technologien erfassen, verarbeiten und nutzen wir weniger Daten. In Fällen, wo dies nützlich für das gesamte Ökosystem ist, teilen wir unsere Arbeit als Open Source über PyTorch, auch unsere Entwicklungen zu PETs für KI. Dank unserer Investitionen in PETs konnten wir zudem eine neue kryptografische Sicherheitsfunktion in WhatsApp integrieren. Damit kannst du basierend auf Schlüsseltransparenz die Sicherheit deiner Verbindung und Unterhaltung überprüfen. Mit diesem Feature sinkt die Wahrscheinlichkeit, dass Dritte sich als die Person oder das Unternehmen ausgeben, mit der bzw. dem du dich verbinden und verschlüsselte Nachrichten austauschen möchtest. Und so funktioniert es: Die öffentlichen Schlüssel in der Unterhaltung werden anhand eines Serververzeichnisses, in dem öffentliche Schlüssel mit Nutzer*innendaten hinterlegt sind, auf ihre Gültigkeit überprüft. Dann wird ein öffentlich zugängliches Prüfprotokoll erstellt, das die Privatsphäre nicht verletzt. In diesem Protokoll ist ersichtlich, ob die Daten in dem Verzeichnis gelöscht oder modifiziert worden sind.
Ebenso haben wir ein Modell für das Entfernen von Code und Assets entwickelt, das unsere Entwickler*innen sicher und effizient durch den Produkteinstellungsprozess leitet. Wenn veraltete Produkte eingestellt werden, ist das eine komplexe Aufgabe, bei der interne und externe Abhängigkeiten zu berücksichtigen sind – auch Abhängigkeiten von anderen Meta-Produkten, die selbst nicht entfernt werden sollen. Zu diesem Zweck beinhaltet unser Systematic Code and Asset Removal Framework (SCARF) ein Workflow-Management-Tool, das unseren Entwickler*innen Zeit spart, indem es sowohl Abhängigkeiten ermittelt als auch die richtige Reihenfolge der Aufgaben, um ein Produkt zu bereinigen. Außerdem gibt es in SCARF untergeordnete Systeme für das sichere Entfernen von totem Code und nicht genutzten Datentypen.
SCARF unterstützt Tausende von menschengeführten Einstellungsprojekten und hat bereits Millionen von Code- und Daten-Assets automatisch bereinigt. Zudem ist das Tool von Nutzen für unsere Datenschutz-Teams: Sie verwenden es, um den Fortschritt von laufenden Produkteinstellungen zu überwachen und sicherzustellen, dass sie fristgerecht abgeschlossen werden.
Persönliche Chats sind seit 2016 durch Ende-zu-Ende-Verschlüsselung geschützt, was bedeutet, dass niemand außerhalb eines Chats ihn lesen oder anhören kann, nicht einmal WhatsApp oder Meta. 2023 haben wir damit begonnen, die Ende-zu-Ende-Verschlüsselung für alle persönlichen Chats und Anrufe im Messenger als Standard einzuführen, um den Messenger noch sicherer zu machen. So gewährleisten wir, dass nur die Personen in einem Chat die Nachrichten darin lesen können.
Diese Neuerung hat mehrere Jahre gebraucht, denn wir haben uns die Zeit genommen, dabei alles richtig zu machen. Mit ihrer unermüdlichen Arbeit haben unsere Entwicklungs-, Verschlüsselungs- und Design-Teams, unsere Richtlinienexpert*innen sowie Produktmanager*innen die Funktionen des Messengers von Grund auf neu aufgebaut. Um die Ende-zu-Ende-Verschlüsselung im Messenger zu integrieren, mussten wir viele Aspekte der Applikationsprotokolle grundlegend umbauen, denn wir wollten Datenschutz und Sicherheit verbessern und gleichzeitig die Features beibehalten, die den Messenger so beliebt machen. Unser Ansatz: Basierend auf vorhandenem Wissen über WhatsApp und geheime Unterhaltungen im Messenger (ein optionaler Vorgänger der Ende-zu-Ende-Verschlüsselung im Messenger) haben wir uns unseren größten Herausforderungen gestellt – Mehrgerätefähigkeit, Funktionsunterstützung, Chatverlauf und Web-Support. Auf dem Weg dahin haben wir auch neue Datenschutz-, Sicherheits- und Kontrollfunktionen eingeführt, z. B. die App-Sperre oder Einstellungen für die Nachrichtenzustellung, damit Nutzer*innen festlegen können, wer ihnen Nachrichten senden darf. Außerdem haben wir bestehende Sicherheitsfunktionen optimiert, wie Melden, Blockieren und Nachrichtenanfragen. Auf WhatsApp, wo alle persönlichen Chats und Anrufe standardmäßig Ende-zu-Ende verschlüsselt sind, haben wir ein neues verschlüsseltes Speichersystem eingeführt, das auf dem Auditable Key Directory von WhatsApp basiert und den Nutzer*innen die Möglichkeit gibt, ihre WhatsApp-Kontakte sicher zu speichern und wiederherzustellen.
Im Wesentlichen geht es bei der Ende-zu-Ende-Verschlüsselung darum, die Kommunikation zwischen Nutzer*innen zu schützen, damit sie sich sicher fühlen können, wenn sie sich mit ihren Freund*innen und Lieben frei austauschen. Wir haben eng mit externen Expert*innen, Wissenschaftler*innen, Interessenvertreter*innen und Regierungen zusammengearbeitet, um Risiken zu erkennen und Maßnahmen zur Minimierung zu entwickeln, damit Datenschutz und Sicherheit Hand in Hand gehen. Wir haben eine unabhängige Untersuchung zu den Auswirkungen auf die Menschenrechte in Auftrag gegeben und unsere Produkte so konzipiert, dass sie standardmäßig Schaden verhindern und Nutzer*innen die Kontrolle über ihre Daten geben. Außerdem haben wir in die proaktive Erkennung von Missbrauch investiert.
Mit den Ray-Ban Meta-Brillen kannst du Fotos oder Videoclips von deiner ganz besonderen Perspektive aufnehmen, Musik hören oder einen Anruf annehmen – und für das alles brauchst du nicht einmal dein Handy zu zücken. Die Ray-Ban Meta-Brillen sind überarbeitet worden: Die Kamera hat jetzt eine höhere Qualität, Audio- und Mikrofonsysteme wurden optimiert und es gibt neue Funktionen wie Livestreaming und eine integrierte Meta-KI, damit du dich nicht entscheiden musst, ob du einen Augenblick einfängst oder ihn einfach genießt.
Bei der Entwicklung der Ray-Ban Meta-Brillen stand der Datenschutz im Mittelpunkt – als klares Zeichen unseres Engagements für verantwortungsbewusste Innovation und Privacy by Design. Schon seit dem Launch der Ray-Ban Stories nehmen wir das Feedback von Stakeholder*innen ernst und haben es auch hier in sinnvoller und greifbarer Form einfließen lassen.
Wir haben Teen-Konten auf Instagram eingeführt – ein neues Erlebnis für Teenager, das von den Eltern begleitet wird. Wir werden Teen-Konten auch auf anderen Meta-Plattformen einführen. Teen-Konten bieten Standard-Schutzfunktionen, die festlegen, wer Teenager kontaktieren darf und welche Inhalte sie sehen können. Teenager erhalten automatisch Teen-Konten und Teens unter 16 Jahren benötigen ab sofort die Erlaubnis eines Elternteils, wenn sie ihre Sicherheitseinstellungen lockern möchten.
Elternaufsicht: Eltern können nicht die Nachrichten ihrer Teenager lesen. Sie können aber sehen, mit wem ihr Kind in den letzten sieben Tagen geschrieben hat.
Hier findest du weitere Informationen dazu.
Zu unseren neuen generativen KI-Funktionen gehören KI-Sticker, Bildbearbeitung mit KI, unser KI-Assistent Meta AI für alle unsere Apps und 28 neue KI-Charaktere. Wir haben den Leitfaden zu generativer KI im Privacy Center und andere Transparenzressourcen aktualisiert, damit unsere Nutzer*innen nachvollziehen können, wie wir unsere KI-Modelle entwickeln, wie unsere Features funktionieren und welche Möglichkeiten und Datenschutzrechte sie in ihrer Region haben.
Unser Tool „Warum sehe ich das?“ erklärt unseren Nutzer*innen, warum sie bestimmte Werbeanzeigen in ihrem Feed auf Facebook und Instagram sehen. Eine wesentliche Neuerung bestand darin, die Informationen in Themen dazu zusammenzufassen, welchen Einfluss Aktivitäten sowohl auf als auch außerhalb von unseren Technologien auf die Modelle für maschinelles Lernen haben, die wir für die Gestaltung und Auslieferung von Werbeanzeigen nutzen. Einen Beitrag auf der Facebook-Seite eines Freundes oder einer Freundin mit „Gefällt mir“ zu markieren gehört ebenso dazu wie eine Sport-Website aufzurufen. Es gibt auch neue Beispiele und Bilder, in denen wir erklären, wie unsere Modelle für maschinelles Lernen einzelne Themen verbinden, um relevante Werbung anzuzeigen. Außerdem haben Nutzer*innen nun mehr Möglichkeiten, ihre Einstellungen für Werbeanzeigen zu finden, indem sie ihre Werbepräferenzen über weitere Seiten im Tool „Warum sehe ich das?“ aufrufen können.
Neue Recherchetools aus unserer Entwicklung sind die Meta-Content-Bibliothek und die Content-Bibliotheks-API: Damit erhalten entsprechend berechtigte Personen Zugriff auf öffentlich zugängliche Inhalte auf Facebook, Instagram und Threads. Nutzer*innen können diese Daten entweder über eine grafische Bedienoberfläche oder eine Programm-API durchsuchen, untersuchen und filtern.
Die Daten umfassen Beiträge von Facebook-Seiten und -Profilen, aus Facebook-Gruppen und -Veranstaltungen sowie Beiträge von Instagram-Konten und Threads-Profilen. Einzelheiten zu den Inhalten sind ebenfalls verfügbar, beispielsweise die Anzahl der Reaktionen, geteilten Inhalte, Kommentare und die Anzahl der Aufrufe eines Beitrags.
Meta arbeitet mit dem ICPSR der University of Michigan zusammen, um Zugang zu öffentlichen Daten von Meta-Technologien zu gewähren. Hierbei liegt unser Augenmerk auf der damit einhergehenden Verantwortung und dem Datenschutz. Diese Partnerschaft wird durch die branchenführende Initiative Social Media Archive (SOMAR) des ICPSR ermöglicht. SOMAR ist für die unabhängige Verarbeitung und Prüfung der Zugriffsanträge für die Meta-Content-Bibliothek und die Content-Bibliotheks-API zuständig.
Wir legen Wert auf transparente Kommunikation. Dazu zählt auch, Menschen über unser Vorgehen zu informieren und aufzuklären bzw. dieses zu erläutern. Die entsprechenden Informationen müssen schnell und einfach zugänglich sein.
Wir möchten, dass unsere Nutzer*innen verstehen, welche Informationen sie teilen und wie diese genutzt werden. Um ihnen mehr Transparenz und Kontrolle zu bieten, haben wir daher verschiedene Datenschutz-Tools entwickelt:
„Wir wollen beim Datenschutz alles richtig machen. Dazu investieren wir fortlaufend und ziehen als Unternehmen gemeinsam an einem Strang. Bei Meta sind alle dafür verantwortlich, dass wir dieses Ziel erreichen.“
– Michel Protti, Chief Privacy and Compliance Officer, Product
Die Daten und die Privatsphäre unserer Nutzer*innen zu schützen, ist entscheidend für unser Unternehmen und unsere Zukunftspläne. Deshalb verfeinern und verbessern wir unser Datenschutzprogramm und unsere Produkte ständig und reagieren auf neue Erwartungen und technologische Entwicklungen. Wir arbeiten mit politischen Entscheidungsträger*innen und Datenschutzexpert*innen zusammen, um gemeinsam Lösungen für die größten Herausforderungen unserer Zeit zu finden. Und wir lassen die Öffentlichkeit an unseren Fortschritten teilhaben.