Skip to content

Update zu unserem Fortschritt beim Datenschutz

Seit 2019 haben wir mehr als 8 Milliarden US-Dollar in den Aufbau und die Weiterentwicklung unseres umfangreichen Datenschutzprogramms investiert.

1. SO FUNKTIONIERT DATENSCHUTZ BEI META

Heute beschäftigen sich mehr als 3.000 Menschen im Unternehmen hauptsächlich mit Datenschutz. Im Mittelpunkt dieser Investition stehen die Teams, Technologien und Prozesse, die den Datenschutz in unsere Produkte einbauen und die Aufsicht und Rechenschaftspflicht für ein durchdachtes und beispielloses Datenschutzprogramm schaffen.

Photo of Chief Privacy Officer of Product Michel Protti on Meta’s Menlo Park campus

„Im Sommer 2019 wurde uns klar, dass wir für den Datenschutz Investitionen einer höheren Größenordnung benötigen würden. Für Meta bedeutete das enorme und grundlegende Veränderungen. Sie betreffen unsere Mitarbeitenden, Prozesse, die technische Infrastruktur sowie die Aufsichts- und Rechenschaftspflicht. Und wir investieren auch weiterhin in den Schutz von persönlichen Nutzungsdaten, einhergehend mit der Weiterentwicklung von Systemen, Technologien und Erwartungen.“


– Michel Protti, Chief Privacy and Compliance Officer, Product

Governance

Unsere Bemühungen im Bereich Datenschutz bauen auf internen Governance-Strukturen auf, mit denen Datenschutz- und Datennutzungsstandards in allen Bereichen des Unternehmens verankert sind.

Um den Datenschutz im gesamten Unternehmen stärker zu integrieren, haben wir Datenschutzteams innerhalb der einzelnen Produktgruppen eingerichtet. Sie sollen das Verständnis für Datenschutzaspekte durch das Einbringen von Fachwissen in jeder Produktgruppe vertiefen. Diese Teams sorgen an vorderster Front für die Einhaltung des Datenschutzes bei unseren Produkten. In einem zuverlässigen und partnerschaftlichen Prozess denken wir Datenschutzanforderungen in allen Produkt-Roadmaps von Meta von Anfang an mit. Zweimal im Jahr widmen unsere Produktteams etwa 6 bis 8 Wochen dem Datenschutz-Roadmapping. Dabei entwickeln sie neue und verbesserte Datenschutzmaßnahmen.

Das Product Compliance and Privacy Team unter der Leitung von Michel Protti, Chief Privacy and Compliance Officer, Product, umfasst dutzende einzelne Teams, sowohl im technischen als auch nicht technischen Bereich, die das Unternehmen zu Datenschutzstrategien beraten.

Bei unseren Bemühungen für ein umfangreiches Datenschutzprogramm spielt das Product Compliance and Privacy Team eine zentrale Rolle. Stets geleitet von seiner Mission – verantwortungsbewusste Datenpraktiken bei Meta zu stärken und Innovationen zu ermöglichen – sorgt das Team dafür, dass Nutzer*innen verstehen und darauf vertrauen, dass ihre Daten in den Produkten und Diensten von Meta verantwortungsvoll verwendet werden.

Aber das Product Compliance and Privacy Team ist nur eines von vielen in unserem Unternehmen, die sich um den Datenschutz kümmern. Bei Meta arbeiten Tausende Menschen in verschiedenen Rollen und Abteilungen daran, alle Bereiche unseres Unternehmens auf den Datenschutz auszurichten. Dazu zählen etwa Teams für die öffentliche Ordnung, eine Rechtsabteilung und Produktteams. Wir wollen beim Schutz der Privatsphäre alles richtig machen. Dazu müssen alle an einem Strang ziehen, denn jede*r einzelne trägt bei Meta Verantwortung für den Datenschutz.

Das Privacy and Data Policy Team unter der Leitung von Erin Egan, Vice President and Chief Privacy Officer, Policy, lenkt unsere globale Strategie in der öffentlichen Diskussion über den Datenschutz und neue rechtliche Bestimmungen. Das Team sorgt dafür, dass das Feedback von Regierungen und Expert*innen auf der ganzen Welt in unser Produktdesign und unsere Praktiken bei der Datennutzung einfließt.

Deshalb berät sich das Privacy and Data Policy Team regelmäßig mit diesen Stakeholder*innen und nutzt dazu verschiedene Konsultationsmechanismen. Im Jahr 2024 zählten dazu:

  • Laufende Beratungen mit Expert*innen als Teil unseres Produktentwicklungsprozesses und als Grundlage für unsere langfristige Datenschutzstrategie
  • Workshops (u. a. Datendialoge) und andere Treffen zu komplexen Datenschutzfragen
  • Finanzierung von Expert*innen, die uns eingehend dazu beraten, wie wir Aspekte unseres Datenschutzprogramms verbessern können
  • Unterstützung von branchenübergreifenden Initiativen wie z. B. Trust, Transparency and Control Labs (TTC Labs) oder Open Loop, mit deren innovativen Lösungen wir und andere verantwortungsvolle Technologien entwickeln können
  • Organisation einer Gesprächsreihe und des jährlichen Global Innovation and Policy Flyout mit führenden Datenschutzexpert*innen aus der ganzen Welt, mit denen wir die wichtige Datenschutzthemen besprechen

Wir unterstützen und beteiligen uns an Branchenkonferenzen und anderen Veranstaltungen zur Förderung des Datenschutzes und zum Austausch neuer Erkenntnisse in Sachen Datenschutzpraktiken. Im Jahr 2024 haben wir unsere neuesten Datenschutztechnologien auf der USENIX Conference on Privacy Engineering Practice and Respect und auf den IAPP-Konferenzen vor Expert*innen aus den Bereichen Datenschutz und Governance aus aller Welt vorgestellt. Diese Konferenzen bieten uns die Gelegenheit, uns mit Expert*innen auszutauschen und von ihnen zu lernen. So können wir ihre Perspektiven bei der Entwicklung von Produkten und Maßnahmen berücksichtigen.

Wir arbeiten außerdem im Rahmen von Beratungsgremien mit verschiedenen Expert*innen zusammen. Diese Zusammenarbeit haben wir 2024 erweitert. Diese Gremien unterstützen Meta bei der Entscheidungsfindung zu neuen und komplexen Fragen, mit denen wir bei der Entwicklung innovativer Technologien konfrontiert werden. Im Jahr 2024 haben wir uns mit Gremien zu folgenden Themen beraten:

Das Privacy Legal Team nimmt eine wichtige Rolle bei der Ausarbeitung und laufenden Umsetzung unseres Programms ein. Es berät uns bei unserer Datenschutzprüfung zu den gesetzlichen Vorgaben.

Das Privacy and Product Compliance Committee ist ein unabhängiges Komitee innerhalb des Vorstandes. Es kommt mindestens einmal im Quartal zusammen und ist für die Aufsicht über den Datenschutz und die Produkt-Compliance zuständig. Das Komitee besteht aus unabhängigen Führungskräften, die langjährige Erfahrung aus ähnlichen Aufsichtsgremien mitbringen. Mindestens einmal im Quartal werden sie über verschiedene Themen informiert, darunter die aktuellen Richtlinien weltweit, den Stand unseres Datenschutzprogramms sowie die aktuelle unabhängige Beurteilung unseres Datenschutzprogramms durch Dritte.

Interne Audits stellen eine unabhängige Beurteilung des Zustands unseres Datenschutzprogramms und des ihm zugrunde liegenden Kontrollrahmens dar.

Datenschutzkultur im Unternehmen

Um zu gewährleisten, dass jede*r bei Meta versteht, welchen Beitrag er*sie zum Datenschutz leistet, bilden wir unsere Mitarbeitenden fortlaufend zum Thema Datenschutz weiter, zum Beispiel mit Schulungen und internen Informationskampagnen.

Eine zentrale Komponente unseres Ansatzes sind unsere Datenschutzschulungen. Unsere Datenschutzschulungen decken die grundlegenden Elemente des Datenschutzes ab und sollen allen Mitarbeiterenden von Meta helfen, Datenschutzrisiken zu erkennen und verantwortungsvolle Entscheidungen zu treffen, um solche Risiken zu mindern. So können wir nicht nur stolz auf unsere Produkte sein, sondern auch auf den Entwicklungsprozess. Besonders wichtig ist uns dabei, dass unsere Mitarbeitenden sich als erste Verteidigungslinie verstehen, um Datenschutzrisiken zu minimieren und zu vermeiden.

Unsere jährliche Datenschutzschulung sowie unsere Datenschutzschulungen für neue Mitarbeitende und befristet Beschäftigte zeigen anhand realer Beispiele mögliche Datenschutzrisiken im Geschäftsbetrieb auf. Alle Schulungen beinhalten einen Test, in dem das Verständnis der Mitarbeitenden für die relevanten Datenschutzkonzepte überprüft wird. Diese Schulungen werden jährlich aktualisiert und durchgeführt, damit alle Mitarbeitenden zusätzlich zu den Kernkonzepten auch relevante neue Informationen zum Datenschutz erhalten.

Zusätzlich zu diesen obligatorischen Datenschutzschulungen führen wir einen Katalog aller existierenden Datenschutzschulungen, die bei Meta durchgeführt wurden. Diese umfassen weitere Themen und Risiken.

Auch durch den regelmäßigen Kontakt mit unseren Mitarbeitenden schaffen wir ein unternehmensweites Bewusstsein für Datenschutz. Neben den Datenschutzschulungen bieten wir unseren Mitarbeitenden zusätzliche Inhalte und Informationen zum Thema an: über interne Kommunikationskanäle, bei Updates von Meta-Führungskräften, bei unternehmensinternen Q&A-Sessions oder im Rahmen unseres Privacy Days.

Wir nutzen Ereignisse wie unseren Data Privacy Day, um unternehmensweit das Bewusstsein für den Datenschutz zu steigern. Mit Veranstaltungen und Vorträgen von Meta-Führungskräften beleuchten wir zentrale Datenschutzkonzepte und vermitteln mit ansprechenden Inhalten wichtige Prioritäten.

Prozess für die Einhaltung der gesetzlichen Bestimmungen

Es ist die Aufgabe unseres speziellen Teams, dafür zu sorgen, dass sich das Unternehmen an Datenschutz- und Datennutzungsbestimmungen weltweit hält. Deshalb haben wir einen umfassenden Prozess entwickelt, der uns hilft, externe Datenschutzverpflichtungen zu ermitteln und darauf zu reagieren. Dieser Prozess bietet dem Unternehmen einen vollständigen Überblick über alle eingehenden Datenschutzverpflichtungen und definiert unsere Reaktion darauf.

Identifizierung und Bewertung von Datenschutzrisiken

Wir haben ein Risikomanagement-Programm entwickelt, um Datenschutzrisiken bei der Erfassung, Verwendung, Weitergabe und Speicherung von Nutzungsdaten zu ermitteln und zu bewerten. Dieses Programm nutzen wir, um potenzielle Risikobereiche zu identifizieren, unser Datenschutzprogramm zu verbessern und uns auf zukünftige Compliance-Initiativen vorzubereiten.

Schutzmaßnahmen und Kontrollmechanismen

Für den Umgang mit Datenschutzrisiken haben wir entsprechende Schutzmaßnahmen entwickelt, beispielsweise Prozesse und Kontrollmechanismen. Als Teil dieser Arbeit lassen wir intern Gestaltung und Effektivität dieser Schutzmaßnahmen zum Minimieren von Datenschutzrisiken evaluieren.

Issues Management

Wir haben eine zentralisierte Issues-Management-Funktion eingerichtet, damit Datenschutzprobleme leichter erkannt und behoben werden können. Diese Prozess umfasst den gesamten Kreislauf des Umgangs mit Datenschutzproblemen, von der Erfassung und Einstufung über das Planen von Abhilfemaßnahmen bis hin zur Lösungsfindung und abschließenden Dokumentation.

Privacy-Red-Team

Wir haben ein sogenanntes Privacy-Red-Team eingerichtet, dessen Aufgabe es ist, unsere Prozesse und Technologien proaktiv zu testen, um potenzielle Datenschutzrisiken zu identifizieren. Das Privacy-Red-Team nimmt dabei die Rolle einer externen oder internen Partei ein, die versucht, unsere Kontrollmechanismen und Schutzmaßnahmen für den Datenschutz zu umgehen. So können wir proaktiv Bereiche erkennen, in denen wir unsere Kontrollumgebung noch optimieren können.

Störungsmanagement

Unabhängig davon, wie robust unsere Schutzmaßnahmen sind, brauchen wir auch ein Verfahren, mit dem wir (1) feststellen können, wann ein Ereignis die Vertraulichkeit, Integrität und Verfügbarkeit von Daten gefährdet, für die Meta verantwortlich ist. In einem solchen Fall müssen wir (2) die Situation untersuchen und (3) alle erforderlichen Schritte unternehmen, um festgestellte Lücken zu schließen.

Unser Programm zum Störungsmanagement agiert weltweit und betreut die Prozesse, mit denen wir Datenschutzvorfälle identifizieren, bewerten, minimieren und beheben. Zwar leitet das Privacy- und Data-Practices-Team unser Störungsmanagement, aber bei Datenschutzvorfällen ist jede*r einzelne Meta-Mitarbeiter*in verantwortlich. Wichtige Rollen spielen hier unsere einzelnen verantwortlichen Teams, etwa aus der Rechts- und Produktabteilung. Wir investieren auch weiterhin Zeit, Ressourcen und Energie, um ein komplexes Programm aufzubauen, das sich ständig weiterentwickelt und anpasst. Im Folgenden stellen wir die drei wichtigsten Aspekte unseres Ansatzes vor.

Unser Ansatz für den Schutz unserer Nutzer*innen und ihrer Informationen ist mehrstufig. Ein Bestandteil ist die Umsetzung von Schutzmaßnahmen, mit denen Fehler proaktiv beseitigt werden sollen, bevor sie zum Problem werden. Als global agierendes Unternehmen haben wir stark in die Entwicklung und den Einsatz einer breiten Palette von automatisierten Tools investiert, um potenzielle Sicherheitsrisiken so früh und so schnell wie möglich zu erkennen und zu beseitigen. Diese automatisierten Systeme sind so konzipiert, dass sie Vorfälle in Echtzeit erkennen, um so schnell reagieren zu können.

Doch egal wie leistungsfähig die Systeme künftig sein werden – wir sind immer auf die Kontrolle und die Sorgfalt unserer Mitarbeiter*innen angewiesen, um Vorfälle proaktiv zu erkennen und Maßnahmen zu ergreifen. Unsere Entwicklungsteams überprüfen unsere Systeme regelmäßig, um Datenpannen zu erkennen und zu beheben, noch bevor Nutzer*innen davon betroffen sind.

Seit 2011 gibt es Facebooks Bug-Bounty-Programm. Dabei helfen externe Sicherheitsforscher*innen, die Sicherheit und den Datenschutz unserer Produkte und Systeme zu verbessern, indem sie uns potenzielle Sicherheitsrisiken melden. Die Forschungsergebnisse können zu weiteren Untersuchungen und, falls nötig, zu Abhilfemaßnahmen durch Meta führen. Dank dieses Programms können wir Probleme schneller aufspüren und beheben, um unsere Nutzer*innen zu schützen. Durch die Belohnung, die berechtigte Teilnehmer*innen erhalten, setzen wir Anreize für die Weiterentwicklung anspruchsvoller Sicherheitsforschung.

In den letzten 10 Jahren haben sich schon über 50.000 Personen an der Fehlersuche beteiligt. Etwa 1.500 von ihnen aus aller Welt haben in dieser Zeit eine Prämienzahlung erhalten.

Wir haben weitreichende Maßnahmen ergriffen, um die Daten unserer Nutzer*innen vor unberechtigtem Zugriff und anderen Risiken zu schützen. Sollte trotzdem einmal ein Vorfall auftreten, setzen wir auf Transparenz, um das Vertrauen in unsere Produkte, Services und Prozesse wieder zu stärken. Dementsprechend dient unser Störungsmanagement nicht nur dazu, Fehler zu beheben und daraus zu lernen – es definiert auch Schritte, um Nutzer*innen angemessen zu informieren. Das kann etwa durch einen Beitrag in unserem Newsroom oder Privacy Matters-Blog geschehen, auf dem wir über Themen berichten, die unsere Nutzer*innen betreffen. Bei Bedarf kooperieren wir außerdem mit Strafverfolgungsbehörden und anderen öffentlichen Stellen.

Kontrolle von Drittanbietern

Drittanbieter sind externe Geschäftspartner von Meta, die nicht zu Meta gehören oder von uns betrieben werden. Die meisten Drittanbieter gehören zu einer von zwei Kategorien: Entweder sie stellen für Meta Dienstleistungen bereit (etwa Anbieter für die Website-Gestaltung) oder sie nutzen unsere Plattform für ihr Unternehmen (etwa App- oder API-Entwickler*innen). Bei Drittanbietern, die Zugriff auf Daten und personenbezogene Informationen erhalten, versuchen wir das Datenschutzrisiko mit einem speziellen Programm zur Überwachung und Verwaltung von Drittanbietern zu minimieren. Wir überwachen dabei, welche Risiken der Drittanbieter-Zugriff birgt, und setzen angemessene Datenschutzmaßnahmen um.

Wir haben ein Verfahren entwickelt, um den Datenschutz bei externen Dienstleistern zu beurteilen und mögliche Risiken zu minimieren. Die Dienstleister sind gemäß diesem Verfahren an Verträge gebunden, die den Schutz der Privatsphäre vorsehen. Ihr Risikoprofil entscheidet darüber, wie sie während der Zusammenarbeit überwacht werden. Dazu zählen eine Neubewertung und mögliche Sanktionen bei Vertragsverstößen, unter Umständen auch eine Beendigung der Zusammenarbeit.

Im Rahmen von Metas kontinuierlichem Engagement für ein sicheres und datenschutzorientiertes Entwickler*innen-Ökosystem haben wir neue Ressourcen und Initiativen auf den Weg gebracht, die eine verantwortungsvolle Datennutzung unterstützen und die Integrität unserer Plattform stärken sollen.

Hub für verantwortungsvolle Plattforminitiativen: Wir haben einen neuen Hub für verantwortungsvolle Plattforminitiativen eingerichtet, um Ressourcen zum Thema Datenschutz und Sicherheit bei externen Entwickler*innen zentral zu sammeln und damit unser Engagement für sichere und verantwortungsvolle Praktiken in Bezug auf Daten auf unserer gesamten Plattform zu stärken. Dieser Hub enthält Ressourcen und umfassende Anleitungen zu unseren Compliance-Programmen, zu verantwortungsvollen Entwicklungspraktiken und zu den Tools, die Entwickler*innen zur Verfügung stehen, um die Datenschutzstandards von Meta umzusetzen. Mit diesen Ressourcen zu unseren Richtlinien und verantwortungsvollen Plattformpraktiken können Entwickler*innen zu einem sicheren und transparenten Ökosystem beitragen.

Datenzugang und Erneuerung: Wir haben einen neuen konsolidierten Prozess für die Beantragung, Verwaltung und Erneuerung des Datenzugangs für Entwickler*innen eingeführt. Damit bekräftigen wir erneut unser Engagement für die Vereinfachung der Plattform und den Aufbau neuer Entwicklungstools. Im Rahmen der Erneuerung des Datenzugangs werden unsere externen Entwickler*innen einmal im Jahr einer Prüfung unterzogen, um die fortlaufende Einhaltung der Datenschutzstandards und der Plattformbedingungen von Meta zu gewährleisten. Bei dieser Überprüfung müssen alle Entwickler*innen ausdrücklich bestätigen, dass sie die Datenschutzstandards und Nutzungsbedingungen von Meta einhalten, und darlegen, wie und warum verschiedene Arten von Daten verwendet werden. Durch diese Vereinheitlichung möchten wir es unseren Entwickler*innen leichter machen, unsere Anforderungen zu erfüllen, und den Endnutzer*innen zuverlässige Sicherheit und einen soliden Datenschutz zu bieten.

Maßnahmen gegen Scraping

Unser Anti-Scraping-Team widmet sich der Erkennung, Untersuchung und Blockierung von Verhaltensmustern, die mit nicht autorisiertem Scraping in Zusammenhang stehen. Scraping ist das automatisierte Erfassen von Daten von einer Website oder App und kann entweder autorisiert oder nicht autorisiert erfolgen. Die Verwendung von Automatisierungsfunktionen für den Zugriff auf oder die Erfassung von Daten von Metas Plattformen ohne unsere Erlaubnis stellt einen Verstoß gegen unsere Nutzungsbedingungen dar.

Wir investieren kontinuierlich in Infrastruktur und Tools, um es Personen, die Scraping verwenden, zu erschweren, Daten von unseren Diensten zu erhalten bzw. daraus Kapital zu schlagen, wenn es ihnen doch gelingt. Beispiele für diese Investitionen sind etwa Übertragungs- und Datenlimits. Übertragungslimits begrenzen die Anzahl der Interaktionen mit unseren Produkten innerhalb eines bestimmten Zeitraums. Datenbeschränkungen wiederum verhindern, dass Nutzer*innen mehr Daten erhalten, als sie für die normale Nutzung unserer Produkte benötigen.

Wir nutzen intern generierte Nutzer*innen- und Content-IDs, nachdem wir festgestellt haben, dass bei nicht autorisiertem Scraping solche IDs oft erraten oder gekauft werden. Außerdem verwenden wir neue, pseudonymisierte IDs, die das nicht autorisierte Scraping von Daten verhindern, indem sie es Scrapern erschweren, Daten zu erraten, zu verknüpfen und wiederholt darauf zuzugreifen.

Täglich blockieren wir Milliarden von Handlungen auf Facebook und Instagram, bei denen der Verdacht von unautorisiertem Scraping besteht. Zusätzlich haben wir eine Vielzahl von Maßnahmen gegen unautorisiertes Scraping unternommen: So haben wir Konten gesperrt oder Unternehmen, die gescrapte Daten nutzen, aufgefordert, diese zu löschen.

Datenschutzprüfung

Die Datenschutzprüfung ist ein zentraler Bestandteil in der Entwicklung neuer und aktualisierter Produkte, Services und Praktiken bei Meta. Im Rahmen dieses Prozesses bewerten wir, wie Daten in neuen oder aktualisierten Produkten, Services und Praktiken verwendet und geschützt werden sollen. Jeden Monat überprüfen wir unternehmensweit im Durchschnitt 1.400 Produkte, Features und Praktiken in Bezug auf Daten, bevor sie ausgeliefert werden, um so etwaige Datenschutzrisiken abzuschätzen und zu mindern.

Komal Lahiri, VP Privacy Review

„Milliarden von Menschen vertrauen jeden Tag darauf, dass wir ihre Privatsphäre schützen. Die Datenschutzprüfung ist ein zentrales Element unserer Bemühungen, dieses Vertrauen nicht zu enttäuschen, und hilft uns dabei, Neuerungen verantwortungsbewusst einzuführen. Unser oberstes Ziel ist es, unseren Nutzer*innen und den Aufsichtsbehörden deutlich zu zeigen, dass wir unseren Datenschutzpflichten nachkommen und dabei alles richtig machen.“


– Komal Lahiri, VP, Governance, Risk, and Compliance, Product

Ein abteilungsübergreifendes Team von Datenschutzexpert*innen bewertet die möglichen Datenschutzrisiken eines Projekts und ermittelt, ob vor dem Projektstart zusätzliche Änderungen notwendig sind, um diese Risiken zu mindern. Gibt es keine Übereinstimmung bei der Beurteilung der einschlägigen Risiken eines Produkts oder hinsichtlich der Vorschläge, wie diese zu minimieren sind, sieht der Prozess eine Eskalation zur weiteren Bewertung und Entscheidung vor, zunächst an die Führungsebene für Produkte und Richtlinien sowie letztendlich zum*zur CEO.

Die Entwicklung neuer oder aktualisierter Produkte, Services oder Vorgehensweisen im Rahmen der Datenschutzprüfung orientiert sich an unseren internen Datenschutzerwartungen. Dazu gehören:

  1. Zweckbindung: Daten sind nur für einen bestimmten und klar ersichtlichen Vorgang zu verarbeiten, der Nutzer*innen einen Mehrwert bietet.
  2. Datensparsamkeit: Daten sind nur in dem Umfang zu erfassen und zu erstellen, wie er für den angegebenen Zweck notwendig ist.
  3. Datenaufbewahrung: Daten sind nur so lange zu speichern, wie sie für den angegebenen Zweck tatsächlich benötigt werden.
  4. Verhinderung von externem Datenmissbrauch: Daten sind vor Missbrauch, unbeabsichtigtem Verlust und Zugriff durch unberechtigte Dritte zu schützen.
  5. Transparenz und Kontrolle: Das Produktverhalten und Informationen zur Datenverarbeitung sind leicht verständlich, wahrheitsgemäß und proaktiv zu vermitteln. Nutzer*innen sollen das Verhalten unserer Produkte, wo immer möglich, selbst bestimmen können.
  6. Datenzugriff und -verwaltung: Informationen, die wir über unsere Nutzer*innen erfassen oder erstellen, sollen für diese zugänglich und verwaltbar sein.
  7. Fairness: Wir entwickeln Produkte, die Risiken für gefährdete Bevölkerungsgruppen erkennen und minimieren können, um einen Mehrwert für alle Nutzer*innen zu schaffen.
  8. Verantwortung: Unsere Produkte, Praktiken und Entscheidungen unterliegen einer internen Prozesskontrolle sowie technischen Kontrollen.

Außerdem haben wir in Verifizierungsprüfungen und eine zentralisierte Plattform investiert, um die Datenschutzprüfung auch im großen Maßstab durchführen zu können:

  • Zentrale Plattform: Die Datenschutz-Review läuft zentral über unsere Plattform. Dieser Ort ermöglicht es unseren Teams, ihre Überprüfungen, Anforderungen und Datenschutzentscheidungen effizient zu verwalten.
  • Verifizierungsprüfungen: Die Datenschutz-Review umfasst eine Überprüfung, bei der die technische Umsetzung unserer Maßnahmen zur Risikominderung analysiert, verifiziert und dokumentiert wird. Dieser Prozess ist in unsere Software-Entwicklungstools integriert, damit die vereinbarten Datenschutzmaßnahmen auch tatsächlich umgesetzt werden. Wir automatisieren diese Überprüfung, damit wir unserer Verpflichtung zum Schutz der Privatsphäre unserer Nutzer*innen konsequent nachkommen können.
2. Investition in technische Datenschutzlösungen

Wir investieren in innovative Technologien, um unsere Datenschutzbemühungen zu skalieren und zu verbessern. Wir integrieren den Datenschutz in die Tools und Prozesse von Meta, damit unsere Teams diesen schon früh im Entwicklungsprozess mitdenken, um die Privatsphäre unserer Nutzer*innen zu schützen.

„Mit unseren Investitionen in die Infrastruktur gewährleisten wir, dass der Datenschutz bei uns ein fester Bestandteil der Produktentwicklung ist. So können wir weiterhin innovative Produkte mit einem echten Mehrwert für unsere Nutzer*innen entwickeln und gleichzeitig ihre Privatsphäre schützen.“

– Michel Protti, Chief Privacy and Compliance Officer, Product

Photo of two people collaborating

Durch Investitionen in neue Technologien haben wir erhebliche Fortschritte bei der Verbesserung unserer Datenschutz-Review gemacht. Insbesondere haben wir einen Entscheidungsrahmen auf Produktebene eingeführt, der die Kohärenz und Standardisierung unserer Reviews verbessert hat. Dieser Rahmen hat es uns ermöglicht, den Review-Prozess zu automatisieren und zu optimieren, indem wir auf frühere Reviews ähnlicher Projekte zurückgreifen und Datenschutzeinstellungen direkt in unsere Entwicklungstools einbinden. Dank dieser Änderungen können wir monatlich über 1.400 Launches überprüfen und dabei einheitliche Datenschutzstandards einhalten.

Wir werden auch weiterhin eine datenschutzorientierte Infrastruktur entwickeln, d. h. innovative und effiziente Strukturen innerhalb der Meta-Infrastrukturlösungen, die es Entwickler*innen leichter machen, bei der Entwicklung neuer Produkte die entsprechenden Datenschutzanforderungen zu berücksichtigen. Bei einer datenschutzorientierten Infrastruktur werden die Datenschutzvorgaben direkt in den Code eingebettet, damit alle Anforderungen automatisch erfüllt sind. So haben wir zum Beispiel „Policy Zones“ eingerichtet, die in unserer gesamten Infrastruktur gelten, um Daten nur für zulässige Zwecke zu verwenden und die Zwecke der Datenverarbeitung zu begrenzen. Eine datenschutzorientierte Infrastruktur ist nach wie vor von entscheidender Bedeutung für die Durchsetzung komplexer Zweckbeschränkungen bei gleichzeitiger Gewährleistung von Skalierbarkeit, Zuverlässigkeit und einer optimierten Entwickler*innen-Erfahrung.

Wir setzen innovative Tools und Technologien auf allen Meta-Plattformen ein, um die Menge an Nutzungsdaten, die wir erfassen und verwenden, proaktiv zu reduzieren. Außerdem investieren wir auch weiterhin in Datenschutztechnologien (Privacy-Enhancing Technologies, PETs), die auf komplexen Verschlüsselungsmethoden und statistischen Verfahren basieren. Dank dieser Technologien erfassen, verarbeiten und nutzen wir weniger Daten. In Fällen, wo dies nützlich für das gesamte Ökosystem ist, teilen wir unsere Arbeit als Open Source über PyTorch, auch unsere Entwicklungen zu PETs für KI. Dank unserer Investitionen in PETs konnten wir zudem eine neue kryptografische Sicherheitsfunktion in WhatsApp integrieren. Damit kannst du basierend auf Schlüsseltransparenz die Sicherheit deiner Verbindung und Unterhaltung überprüfen. Mit diesem Feature sinkt die Wahrscheinlichkeit, dass Dritte sich als die Person oder das Unternehmen ausgeben, mit der bzw. dem du dich verbinden und verschlüsselte Nachrichten austauschen möchtest. Und so funktioniert es: Die öffentlichen Schlüssel in der Unterhaltung werden anhand eines Serververzeichnisses, in dem öffentliche Schlüssel mit Nutzer*innendaten hinterlegt sind, auf ihre Gültigkeit überprüft. Dann wird ein öffentlich zugängliches Prüfprotokoll erstellt, das die Privatsphäre nicht verletzt. In diesem Protokoll ist ersichtlich, ob die Daten in dem Verzeichnis gelöscht oder modifiziert worden sind.

Ebenso haben wir ein Modell für das Entfernen von Code und Assets entwickelt, das unsere Entwickler*innen sicher und effizient durch den Produkteinstellungsprozess leitet. Wenn veraltete Produkte eingestellt werden, ist das eine komplexe Aufgabe, bei der interne und externe Abhängigkeiten zu berücksichtigen sind – auch Abhängigkeiten von anderen Meta-Produkten, die selbst nicht entfernt werden sollen. Zu diesem Zweck beinhaltet unser Systematic Code and Asset Removal Framework (SCARF) ein Workflow-Management-Tool, das unseren Entwickler*innen Zeit spart, indem es sowohl Abhängigkeiten ermittelt als auch die richtige Reihenfolge der Aufgaben, um ein Produkt zu bereinigen. Außerdem gibt es in SCARF untergeordnete Systeme für das sichere Entfernen von totem Code und nicht genutzten Datentypen.

SCARF unterstützt Tausende von menschengeführten Einstellungsprojekten und hat bereits Millionen von Code- und Daten-Assets automatisch bereinigt. Zudem ist das Tool von Nutzen für unsere Datenschutz-Teams: Sie verwenden es, um den Fortschritt von laufenden Produkteinstellungen zu überwachen und sicherzustellen, dass sie fristgerecht abgeschlossen werden.

3. Erfolge beim Datenschutz

Wir haben uns zu einem datenschutzorientierten Unternehmen entwickelt. Bei jedem neuen Produkt und jeder neuen Funktion wird der Datenschutz von Anfang an berücksichtigt. So gewährleisten wir die Privatsphäre unserer Nutzer*innen sowohl bei neuen Produktinnovationen als auch bei Updates bestehender Produkte. Deshalb ist der Datenschutz auch ein zentraler Bestandteil der Leistungsbewertung für unsere Engineering-Teams.



Unsere Produkte sind der beste Beweis dafür:

Persönliche Chats sind seit 2016 durch Ende-zu-Ende-Verschlüsselung geschützt, was bedeutet, dass niemand außerhalb eines Chats ihn lesen oder anhören kann, nicht einmal WhatsApp oder Meta. 2023 haben wir damit begonnen, die Ende-zu-Ende-Verschlüsselung für alle persönlichen Chats und Anrufe im Messenger als Standard einzuführen, um den Messenger noch sicherer zu machen. So gewährleisten wir, dass nur die Personen in einem Chat die Nachrichten darin lesen können.

Diese Neuerung hat mehrere Jahre gebraucht, denn wir haben uns die Zeit genommen, dabei alles richtig zu machen. Mit ihrer unermüdlichen Arbeit haben unsere Entwicklungs-, Verschlüsselungs- und Design-Teams, unsere Richtlinienexpert*innen sowie Produktmanager*innen die Funktionen des Messengers von Grund auf neu aufgebaut. Um die Ende-zu-Ende-Verschlüsselung im Messenger zu integrieren, mussten wir viele Aspekte der Applikationsprotokolle grundlegend umbauen, denn wir wollten Datenschutz und Sicherheit verbessern und gleichzeitig die Features beibehalten, die den Messenger so beliebt machen. Unser Ansatz: Basierend auf vorhandenem Wissen über WhatsApp und geheime Unterhaltungen im Messenger (ein optionaler Vorgänger der Ende-zu-Ende-Verschlüsselung im Messenger) haben wir uns unseren größten Herausforderungen gestellt – Mehrgerätefähigkeit, Funktionsunterstützung, Chatverlauf und Web-Support. Auf dem Weg dahin haben wir auch neue Datenschutz-, Sicherheits- und Kontrollfunktionen eingeführt, z. B. die App-Sperre oder Einstellungen für die Nachrichtenzustellung, damit Nutzer*innen festlegen können, wer ihnen Nachrichten senden darf. Außerdem haben wir bestehende Sicherheitsfunktionen optimiert, wie Melden, Blockieren und Nachrichtenanfragen. Auf WhatsApp, wo alle persönlichen Chats und Anrufe standardmäßig Ende-zu-Ende verschlüsselt sind, haben wir ein neues verschlüsseltes Speichersystem eingeführt, das auf dem Auditable Key Directory von WhatsApp basiert und den Nutzer*innen die Möglichkeit gibt, ihre WhatsApp-Kontakte sicher zu speichern und wiederherzustellen.

Im Wesentlichen geht es bei der Ende-zu-Ende-Verschlüsselung darum, die Kommunikation zwischen Nutzer*innen zu schützen, damit sie sich sicher fühlen können, wenn sie sich mit ihren Freund*innen und Lieben frei austauschen. Wir haben eng mit externen Expert*innen, Wissenschaftler*innen, Interessenvertreter*innen und Regierungen zusammengearbeitet, um Risiken zu erkennen und Maßnahmen zur Minimierung zu entwickeln, damit Datenschutz und Sicherheit Hand in Hand gehen. Wir haben eine unabhängige Untersuchung zu den Auswirkungen auf die Menschenrechte in Auftrag gegeben und unsere Produkte so konzipiert, dass sie standardmäßig Schaden verhindern und Nutzer*innen die Kontrolle über ihre Daten geben. Außerdem haben wir in die proaktive Erkennung von Missbrauch investiert.

Mit den Ray-Ban Meta-Brillen kannst du Fotos oder Videoclips von deiner ganz besonderen Perspektive aufnehmen, Musik hören oder einen Anruf annehmen – und für das alles brauchst du nicht einmal dein Handy zu zücken. Die Ray-Ban Meta-Brillen sind überarbeitet worden: Die Kamera hat jetzt eine höhere Qualität, Audio- und Mikrofonsysteme wurden optimiert und es gibt neue Funktionen wie Livestreaming und eine integrierte Meta-KI, damit du dich nicht entscheiden musst, ob du einen Augenblick einfängst oder ihn einfach genießt.

Bei der Entwicklung der Ray-Ban Meta-Brillen stand der Datenschutz im Mittelpunkt – als klares Zeichen unseres Engagements für verantwortungsbewusste Innovation und Privacy by Design. Schon seit dem Launch der Ray-Ban Stories nehmen wir das Feedback von Stakeholder*innen ernst und haben es auch hier in sinnvoller und greifbarer Form einfließen lassen.

  • Die Aufnahme-LED ist jetzt auffälliger und besser sichtbar, mit einem differenzierten Signalmuster – Dauerleuchten oder Blinken – für längere Aufnahmen (Videoaufnahmen, Livestreaming).
  • Außerdem gibt es ein neues Feature, das Aufnahmen verhindert, während die Aufnahme-LED ganz verdeckt ist. Ist die Aufnahme-LED vollständig verdeckt, kann der*die Nutzer*in die Kamera nicht verwenden und wird informiert, dass die Aufnahme-LED frei und sichtbar sein muss, um etwas aufzunehmen.
  • Die Begleit-App Meta View bietet auch weiterhin einfachen Zugriff auf die ‎Privatsphäre-Einstellungen‎, um das Teilen von Informationen und zusätzlichen Daten mit Meta zu verwalten.

Wir haben Teen-Konten auf Instagram eingeführt – ein neues Erlebnis für Teenager, das von den Eltern begleitet wird. Wir werden Teen-Konten auch auf anderen Meta-Plattformen einführen. Teen-Konten bieten Standard-Schutzfunktionen, die festlegen, wer Teenager kontaktieren darf und welche Inhalte sie sehen können. Teenager erhalten automatisch Teen-Konten und Teens unter 16 Jahren benötigen ab sofort die Erlaubnis eines Elternteils, wenn sie ihre Sicherheitseinstellungen lockern möchten.

  • Private Konten: Konten von Jugendlichen unter 16 Jahren sind standardmäßig privat, neue Follower*innen müssen von ihnen bestätigt werden. Weil Teen-Konten standardmäßig privat sind, müssen Teenager neue Follower*innen erst bestätigen und Personen, die ihnen nicht folgen, können weder ihre Inhalte sehen noch mit ihnen interagieren.
  • Messaging-Beschränkungen: Für Teenager gelten die strengsten Messaging-Einstellungen, sodass sie nur Nachrichten von Personen erhalten können, denen sie folgen oder mit denen sie bereits in Kontakt stehen.
  • Einschränkungen bei sensiblen Inhalten: Für Teenager gelten automatisch die strengsten Einstellungen für sensible Inhalte. Damit wird eingeschränkt, welche sensiblen Inhalte Teens beispielsweise in Explore oder Reels sehen.
  • Eingeschränkte Interaktionsmöglichkeiten: Teenager können nur von Personen markiert oder erwähnt werden, denen sie folgen.

Elternaufsicht: Eltern können nicht die Nachrichten ihrer Teenager lesen. Sie können aber sehen, mit wem ihr Kind in den letzten sieben Tagen geschrieben hat.

Hier findest du weitere Informationen dazu.

Zu unseren neuen generativen KI-Funktionen gehören KI-Sticker, Bildbearbeitung mit KI, unser KI-Assistent Meta AI für alle unsere Apps und 28 neue KI-Charaktere. Wir haben den Leitfaden zu generativer KI im Privacy Center und andere Transparenzressourcen aktualisiert, damit unsere Nutzer*innen nachvollziehen können, wie wir unsere KI-Modelle entwickeln, wie unsere Features funktionieren und welche Möglichkeiten und Datenschutzrechte sie in ihrer Region haben.

Unser Tool „Warum sehe ich das?“ erklärt unseren Nutzer*innen, warum sie bestimmte Werbeanzeigen in ihrem Feed auf Facebook und Instagram sehen. Eine wesentliche Neuerung bestand darin, die Informationen in Themen dazu zusammenzufassen, welchen Einfluss Aktivitäten sowohl auf als auch außerhalb von unseren Technologien auf die Modelle für maschinelles Lernen haben, die wir für die Gestaltung und Auslieferung von Werbeanzeigen nutzen. Einen Beitrag auf der Facebook-Seite eines Freundes oder einer Freundin mit „Gefällt mir“ zu markieren gehört ebenso dazu wie eine Sport-Website aufzurufen. Es gibt auch neue Beispiele und Bilder, in denen wir erklären, wie unsere Modelle für maschinelles Lernen einzelne Themen verbinden, um relevante Werbung anzuzeigen. Außerdem haben Nutzer*innen nun mehr Möglichkeiten, ihre Einstellungen für Werbeanzeigen zu finden, indem sie ihre Werbepräferenzen über weitere Seiten im Tool „Warum sehe ich das?“ aufrufen können.

Neue Recherchetools aus unserer Entwicklung sind die Meta-Content-Bibliothek und die Content-Bibliotheks-API: Damit erhalten entsprechend berechtigte Personen Zugriff auf öffentlich zugängliche Inhalte auf Facebook, Instagram und Threads. Nutzer*innen können diese Daten entweder über eine grafische Bedienoberfläche oder eine Programm-API durchsuchen, untersuchen und filtern.

Die Daten umfassen Beiträge von Facebook-Seiten und -Profilen, aus Facebook-Gruppen und -Veranstaltungen sowie Beiträge von Instagram-Konten und Threads-Profilen. Einzelheiten zu den Inhalten sind ebenfalls verfügbar, beispielsweise die Anzahl der Reaktionen, geteilten Inhalte, Kommentare und die Anzahl der Aufrufe eines Beitrags.

Meta arbeitet mit dem ICPSR der University of Michigan zusammen, um Zugang zu öffentlichen Daten von Meta-Technologien zu gewähren. Hierbei liegt unser Augenmerk auf der damit einhergehenden Verantwortung und dem Datenschutz. Diese Partnerschaft wird durch die branchenführende Initiative Social Media Archive (SOMAR) des ICPSR ermöglicht. SOMAR ist für die unabhängige Verarbeitung und Prüfung der Zugriffsanträge für die Meta-Content-Bibliothek und die Content-Bibliotheks-API zuständig.

Wir legen Wert auf transparente Kommunikation. Dazu zählt auch, Menschen über unser Vorgehen zu informieren und aufzuklären bzw. dieses zu erläutern. Die entsprechenden Informationen müssen schnell und einfach zugänglich sein.

  • Unsere Datenschutzrichtlinie erläutert im Detail, wie wir Informationen erfassen, nutzen, teilen, speichern und übermitteln. Außerdem informieren wir unsere Nutzer*innen über ihre Datenschutzrechte und Privatsphäre-Einstellungen.
  • Im Privacy Center erfahren unsere Nutzer*innen mehr über unsere Vorgehensweisen und können so fundierte Entscheidungen über ihre Privatsphäre treffen, die ihren Anforderungen gerecht werden. Durch Aufklärung und Zugang zu Privatsphäre- und Sicherheitseinstellungen gehen wir auf einige der häufigsten Datenschutzbedenken der Milliarden von Menschen ein, die täglich ihre Zeit mit uns verbringen. Das Privacy Center verfügt über mehrere Module, darunter solche zur Freigabe, Erfassung, Nutzung und Sicherheit sowie zu Jugendlichen, generativer KI und Werbung. So sind mögliche Probleme oder Anliegen direkt mit den relevanten Datenschutz- und Sicherheitseinstellungen verknüpft, die wir im Laufe der Jahre in unseren Apps und Diensten eingerichtet haben.
  • Im Bereich Daten und Privatsphäre unseres Newsrooms, bieten wir weiterführende Informationen zu unserem Datenschutzansatz bei einem bestimmten Feature oder Thema.

Wir möchten, dass unsere Nutzer*innen verstehen, welche Informationen sie teilen und wie diese genutzt werden. Um ihnen mehr Transparenz und Kontrolle zu bieten, haben wir daher verschiedene Datenschutz-Tools entwickelt:

  • Der Privatsphäre-Check führt Nutzer*innen durch wichtige Privatsphäre- und Sicherheitseinstellungen auf Facebook. Er hilft ihnen dabei, die Sicherheit ihres Kontos zu erhöhen und festzulegen, wer sehen kann, was sie teilen, bzw. wie ihre Informationen verwendet werden. Beim Privatsphäre-Check gibt es fünf separate Themenbereiche, in denen unsere Nutzer*innen entscheiden können, wer sehen kann, was sie teilen, wie ihre Informationen verwendet werden und wie sie ihr Konto besser schützen können.
    • Wer sehen kann, was du teilst: Hier kannst du überprüfen, wer deine Profilinformationen sehen kann, z. B. deine Telefonnummer und E-Mail-Adresse, aber auch deine Beiträge.
    • So kannst du dein Konto schützen: Wähle ein stärkeres Passwort und aktiviere die zweistufige Authentifizierung, um dein Konto noch besser zu schützen.
    • So können andere dich auf Facebook finden: Lege fest, wie andere Nutzer*innen dich auf Facebook finden können und wer dir Freundschaftsanfragen senden darf.
    • Deine Daten-Einstellungen auf Facebook: Überprüfe, welche Informationen du mit Apps teilst, bei denen du dich über Facebook angemeldet hast. Du kannst dort auch Apps entfernen, die du nicht mehr nutzt.
    • Deine Werbe-Präferenzen auf Facebook: Hier erfährst du, wie Werbung in unseren Produkten funktioniert, kannst festlegen, welche Profilinformationen Werbetreibende nutzen können, um dir Werbung anzuzeigen, und bestimmen, wer deine sozialen Interaktionen neben Anzeigen sehen kann, z. B. „Gefällt mir“-Angaben.
  • Aktivitäten verwalten: Mit dieser Funktion kann man Beiträge in großen Mengen verwalten. Filter erleichtern dabei das Sortieren und Auffinden der gesuchten Inhalte, z. B. Beiträge mit bestimmten Personen oder aus einem bestimmten Zeitraum. Die Funktion bietet auch die Option, mehrere alte Beiträge gleichzeitig in den Papierkorb zu verschieben. Beiträge im Papierkorb werden nach 30 Tagen endgültig gelöscht, wenn sie nicht schon vorher manuell gelöscht oder wiederhergestellt werden.
  • Kontenübersicht: In der Kontenübersicht können Nutzer*innen ihre verknüpften Funktionen verwalten und die Kontoeinstellungen für ihre Facebook-, Instagram- und Meta-Konten ändern. Nutzer*innen können ihre Facebook-, Instagram- und Meta-Konten zur selben Kontenübersicht hinzufügen. Das ermöglicht Folgendes:
    • Verknüpfte Funktionen in derselben Kontenübersicht verwalten und z. B. Posts oder Stories in mehreren Profilen gleichzeitig veröffentlichen und sich bei mehreren Konten anmelden. Mehr dazu
    • Individuelle Einstellungen für jedes Konto in der Kontenübersicht vornehmen, z. B. persönliche Daten, Passwort und Sicherheit oder Informationen und Berechtigungen. Mehr dazu
      • Auf die eigenen Informationen zugreifen und diese herunterladen: Über die Einstellungen der Kontenübersicht hat man ganz leicht Zugriff auf die eigenen Informationen (z. B. über das Aktivitätenprotokoll oder die Funktionen „Zugriff auf deine Informationen“ und „Deine Informationen herunterladen“). Um diese Tools kontinuierlich zu verbessern, haben wir im Februar 2024 damit begonnen, Datenprotokolle in die Funktion „Deine Informationen herunterladen“ einzubinden. So können Nutzer*innen besser nachvollziehen, wie sie unsere Produkte nutzen. Datenprotokolle enthalten z. B. Informationen über Inhalte, die Nutzer*innen auf Facebook angesehen haben, Interaktionen in den Meta-Technologien und Empfehlungen aufgrund ihrer Aktivitäten.
    • Einstellungen für alle Konten gleichzeitig verwalten, wenn diese sich in derselben Kontenübersicht befinden. Dazu zählen z. B. Werbepräferenzen und Aktivitäten außerhalb der Meta-Technologien. Letzteres bietet eine Zusammenfassung der Aktivitäten, die Unternehmen und Organisationen mit uns über die Interaktionen von Personen teilen, wie z. B. den Besuch ihrer Apps oder Websites. Nutzer*innen können ihre vergangenen Aktivitäten dort auch von ihrem Konto trennen. Mehr dazu
  • Meta Quest und Horizon:
    • Privatsphäre-Einstellungen: In den Privatsphäre-Einstellungen kann man entscheiden, wie man mit anderen interagieren möchte und wie die eigenen Informationen mit anderen geteilt werden sollen. Die ‎Privatsphäre-Einstellungen‎, die man auf seiner Meta Quest oder in der Meta Horizon-App festlegt, entsprechen den Einstellungen für Meta Horizon Worlds. Man kann seine Einstellungen in der Meta Horizon-App und auf Meta Quest verwalten. Man kann sein Meta Horizon-Profil auf „öffentlich“ oder „privat“ einstellen. Mit dem Aktiv-Status kann man festlegen, ob andere sehen können, wenn man online ist oder gerade online war. Und mit der Funktion „App-Aktivität verbergen“ kann man die eigene Aktivität für bestimmte Apps verbergen. Die Privatsphäre-Einstellungen für Meta Horizon OS kann man ganz einfach über die Einstellungen der Quest oder von Horizon Worlds vornehmen.
    • Sensorsperre für die Quest: Die neue Sensorsperre unterbricht die Stromzufuhr zu den externen Kameras und Mikrofonen des Headsets in bestimmten Situationen, z. B. wenn das Headset in den Standby-Modus wechselt. Die Sensoren bleiben so lange ausgeschaltet, bis man das Headset wieder einschaltet. So behalten Nutzer*innen die volle Kontrolle. Die Sensorsperre wurde zunächst als optionale Funktion für die Quest 3 eingeführt und wird in alle zukünftigen Modelle integriert. Ältere Quest-Geräte deaktivieren externe Kameras und Mikrofone über die Software, anstatt sie direkt auszuschalten.
    • Von Eltern verwaltete Konten: Eltern können von Eltern verwaltete Meta-Konten für 10- bis 12-Jährige einrichten (Alter kann variieren), mit denen ihre Kinder auf zahlreiche altersgerechte Inhalte zugreifen können, um in der VR zu spielen und zu lernen.
4. ZUKÜNFTIGES ENGAGEMENT FÜR DEN DATENSCHUTZ

Wir verpflichten uns dem Datenschutz und seiner ständigen Verbesserung.

„Wir wollen beim Datenschutz alles richtig machen. Dazu investieren wir fortlaufend und ziehen als Unternehmen gemeinsam an einem Strang. Bei Meta sind alle dafür verantwortlich, dass wir dieses Ziel erreichen.“
 Michel Protti, Chief Privacy and Compliance Officer, Product

Die Daten und die Privatsphäre unserer Nutzer*innen zu schützen, ist entscheidend für unser Unternehmen und unsere Zukunftspläne. Deshalb verfeinern und verbessern wir unser Datenschutzprogramm und unsere Produkte ständig und reagieren auf neue Erwartungen und technologische Entwicklungen. Wir arbeiten mit politischen Entscheidungsträger*innen und Datenschutzexpert*innen zusammen, um gemeinsam Lösungen für die größten Herausforderungen unserer Zeit zu finden. Und wir lassen die Öffentlichkeit an unseren Fortschritten teilhaben.