Skip to content
UPDATE: FORTSCHRITTE BEIM DATENSCHUTZ

Es ist unsere Verantwortung, die Privatsphäre unserer Nutzer*innen zu schützen und ihnen Kontrolle und Entscheidungsmöglichkeiten zu geben.

1. SO FUNKTIONIERT DATENSCHUTZ BEI META

Datenschutz ist wichtig für unsere Nutzer*innen und unser Unternehmen. Deshalb helfen uns unsere spezialisierten Teams und Prozesse, den Datenschutz auf unseren Plattformen zu gewährleisten.

Photo of Chief Privacy Officer of Product Michel Protti on Meta’s Menlo Park campus

„Wir haben schon große Fortschritte gemacht, aber es gibt noch einiges zu tun. Unsere fortlaufenden Bemühungen werden sich über Jahre erstrecken und wir stehen gerade erst am Anfang. Das Ziel ist es, unsere Unternehmenskultur, unsere Vorgehensweisen und technischen Abläufe mit Fokus auf den Datenschutz auszurichten.“


Michel Protti, Chief Privacy Officer for Product

Governance

Unsere Bemühungen im Bereich Datenschutz bauen auf unseren internen Governance-Strukturen auf, die Datenschutz- und Datennutzungsstandards in allen Bereichen des Unternehmens verankern. Unabhängige Kontrollgremien überwachen unser Datenschutzprogramm und unsere Praktiken.

Um den Datenschutz im gesamten Unternehmen stärker zu integrieren, richten wir in den Produktgruppen eingebettete Datenschutzteams ein. Sie sollen das Verständnis für Datenschutzaspekte durch das Einbringen von Fachwissen in jedem Produkt und jeder Unternehmensgruppe vertiefen. Diese Teams sorgen an vorderster Front für die Einhaltung des Datenschutzes bei unseren Produkten.

Das Meta Privacy- und Data-Practices-Team unter Leitung von Michel Protti, Chief Privacy Officer, Product, umfasst dutzende einzelne Teams, sowohl im technischen als auch nichttechnischen Bereich, die sich mit Datenschutz und verantwortungsvollen Datenpraktiken beschäftigen.

Bei unseren Bemühungen für ein umfangreiches Datenschutzprogramm spielt das Meta Privacy- und Data-Practices-Team eine zentrale Rolle. Stets geleitet von seiner Mission – der Stärkung verantwortungsvoller Datenpraktiken bei Meta – sorgt das Team dafür, dass Nutzer*innen verstehen, wie Meta ihre Daten verwendet, und darauf vertrauen, dass unsere Produkte ihre Daten verantwortungsvoll nutzen.

Aber das Meta Privacy- und Data-Practices-Team ist nur eines von vielen in unserem Unternehmen, die sich um den Datenschutz kümmern. Bei Meta arbeiten tausende Menschen in verschiedenen Rollen und Abteilungen daran, alle Bereiche unseres Unternehmens auf den Datenschutz auszurichten. Das umfasst etwa die Zusammenarbeit mit öffentlichen Entscheidungsträger*innen und die Einhaltung rechtlicher Bestimmungen. Wir wollen beim Schutz der Privatsphäre alles richtig machen. Dazu müssen alle an einem Strang ziehen, denn jede*r einzelne trägt bei Meta Verantwortung für den Datenschutz.

Das „Privacy & Data Policy“-Team unter Leitung von Erin Egan, Vice President & Chief Privacy Officer, Policy, lenkt unsere globale Strategie in der öffentlichen Diskussion über den Datenschutz und neue rechtliche Bestimmungen. Das Team sorgt dafür, dass das Feedback von Regierungen und Expert*innen auf der ganzen Welt Eingang in unser Produktdesign und unsere Datenverarbeitung findet. Das gilt besonders im Hinblick auf unseren Prüfprozess für den Datenschutz.

Wir möchten unsere Produkte stetig weiter verbessern und Innovationen im Bereich des Datenschutzes auf den Weg bringen. Dabei halten wir uns an die höchsten Sicherheitsstandards und arbeiten mit politischen Entscheidungsträger*innen und Datenschutzexpert*innen zusammen, um sicherzustellen, dass wir ihre Erwartungen erfüllen. Das „Privacy & Data Policy“-Team berät sich deshalb regelmäßig und auf unterschiedlichen Wegen mit diesen Stakeholdern. Zu den Konsultationsmechanismen gehören unter anderem:

  • Datenschutz-Beratungsgremien mit regionalen Expert*innen oder Expert*innen mit Fachwissen zu Themen wie Anzeigen oder Extended Reality (XR)
  • Workshops (z. B. in Form von Datendialogen) und andere Treffen zu komplexen Datenschutzfragen
  • Laufende Beratungen mit Expert*innen als Teil unseres Produktentwicklungsprozesses und als Grundlage für unsere langfristige Datenschutzstrategie
  • Finanzierung von Forschung und Eintreten für Datenschutzfragen, einschließlich finanzieller Zuschüsse für Datenschutzforschung und XR-Verantwortung
  • Förderung von Expert*innen, die mit uns eingehend darüber beraten, wie wir Aspekte unseres Datenschutzprogramms verbessern können

Wir organisieren außerdem eine Gesprächsreihe mit führenden Datenschutzexpert*innen aus der ganzen Welt, mit denen wir die wichtigsten Datenschutzthemen besprechen.

Das „Privacy Legal“-Team nimmt eine wichtige Rolle bei der Ausarbeitung und laufenden Umsetzung unseres Programms ein. Es berät uns zu den rechtlichen Bedingungen bei der Umsetzung unseres Prüfprozesses für den Datenschutz.

Das Privacy Committee ist ein unabhängiges Komitee innerhalb des Meta-Vorstandes. Es kommt einmal im Quartal zusammen und stellt sicher, dass wir unseren Datenschutzverpflichtungen nachkommen. Das Komitee besteht aus unabhängigen Direktor*innen, die langjährige Erfahrung aus ähnlichen Aufsichtsgremien mitbringen.

Sie werden regelmäßig von unseren externen Datenschutzprüfer*innen über den Fortschritt unseres Datenschutzprogramms und über unsere Einhaltung von Beschlüssen der Federal Trade Commission (FTC) unterrichtet. Diese externen Prüfer*innen kontrollieren unser Datenschutzprogramm fortlaufend und geben Rückmeldung dazu.

Durch interne Audits können wir den Zustand unseres Datenschutzprogramms unabhängig überprüfen lassen und so eine bessere Kontrolle gewährleisten.

Schulungen zum Datenschutz

Bei Meta ist jede*r für den Datenschutz zuständig. Deshalb ist es unentbehrlich, dass wir unsere Mitarbeitenden fortlaufend zum Datenschutz weiterbilden – zum Beispiel mit Schulungen und internen Sensibilisierungsprogrammen.

Eine zentrale Komponente unseres Ansatzes sind unsere Datenschutzschulungen. Diese Schulungen decken die wesentlichen Fragen des Datenschutzes ab und sollen allen Mitarbeitenden bei Meta dabei helfen, die notwendigen Fähigkeiten zu entwickeln, um Datenschutzrisiken zu erkennen und zu minimieren. Unsere jährliche Datenschutzschulung sowie unsere Datenschutzschulungen für neue Mitarbeitende und befristet Beschäftigte zeigen anhand realer Beispiele mögliche Datenschutzrisiken im Geschäftsbetrieb von Meta auf. Alle Schulungen beinhalten einen Test, der das Verständnis der Mitarbeitenden für die relevanten Datenschutzkonzepte überprüft. Diese Schulungen werden jährlich aktualisiert und durchgeführt, damit alle Mitarbeitenden zusätzlich zu den Kernkonzepten auch relevante neue Informationen zum Datenschutz erhalten.

Zusätzlich zu diesen obligatorischen Datenschutzschulungen führen wir einen Katalog aller existierenden Datenschutzschulungen, die bei Meta durchgeführt werden. Diese umfassen weitere Themen, die für Mitarbeitende in bestimmten Funktionen relevant sind. Kontinuierliche Lernmöglichkeiten zu Datenschutz- und Datenthemen sind eine entscheidende Komponente für die Etablierung verantwortungsvoller Datenpraktiken bei Meta. Deshalb investieren wir weiterhin in unser Schulungsprogramm für den Datenschutz.

Darüber hinaus vermitteln wir Wissen zum Datenschutz durch regelmäßigen Kontakt mit unseren Mitarbeiter*innen. Neben den jährlichen Schulungen bieten wir unseren Mitarbeitenden zusätzliche Inhalte und Informationen zum Datenschutz an: über interne Kommunikationskanäle, bei Vorträgen von Führungskräften aus dem Bereich Privatsphäre, bei unternehmensinternen Q&A-Sessions oder im Rahmen unserer Datenschutz-Woche.

Während der Datenschutz-Woche steigern wir unternehmensweit das Bewusstsein für den Datenschutz. Mit Veranstaltungen und Vorträgen von Mitarbeitenden und Gastredner*innen beleuchten wir eine Woche lang zentrale Datenschutzkonzepte und vermitteln mit ansprechenden Inhalten wichtige Prioritäten.

Viele der Datenschutzfragen, mit denen wir uns beschäftigen, haben keine einfachen oder klar definierten Antworten. Am besten können wir diese schwierigen Themen angehen, indem wir uns von Expert*innen außerhalb des Unternehmens beraten lassen. Wir laden auch externe Expert*innen ein, die mit unserem gesamten Team über ihre Arbeit und ihre Sichtweise auf den Datenschutz bei Meta sprechen. Damit bekommt unser gesamtes Datenschutzteam die Gelegenheit, regelmäßig von verschiedenen Datenschutzexpert*innen Einblicke zu wichtigen und komplexen Themen zu erhalten.

Wir nehmen an externen Veranstaltungen wie dem Data Privacy Day teil. Dies kündigen wir im Vorfeld intern an, damit jede*r Gelegenheit hat, sich einzubringen und mehr über das Thema Datenschutz zu erfahren.

Unternehmensweite Identifizierung und Bewertung von Datenschutzrisiken

Wir haben ein Risikomanagement-Programm entwickelt, um Datenschutzrisiken bei der Erfassung, Verwendung, Weitergabe und Speicherung von Nutzungsdaten zu bewerten. Wir nutzen dieses Programm, um potenzielle Risiken zu identifizieren, unser Datenschutzprogramm zu verbessern und uns auf zukünftige Compliance-Initiativen vorzubereiten.

Schutzmaßnahmen und Kontrollmechanismen

Wir haben verschiedene Schutzmaßnahmen ergriffen, um Datenschutzrisiken zu minimieren und allgemeine sowie rechtliche Anforderungen an den Datenschutz zu erfüllen. Diese umfassen unsere Prozesse und technischen Systeme.

„Privacy Red“-Team

Wir haben das „Privacy Red“-Team eingerichtet, dessen Aufgabe es ist, Prozesse und Technologien proaktiv zu testen, um potenzielle Datenschutzrisiken zu identifizieren. Das „Privacy Red“-Team schlüpft in die Rolle einer externen Partei, die versucht, unsere Datenschutzkontrollen und Sicherheitsmaßnahmen zu umgehen, um vertrauliche Daten zu stehlen. So wollen wir das Vertrauen in unseren Ansatz zum Datenschutz weiter stärken.

Störungsmanagement

Unabhängig davon, wie robust unsere Schutzmaßnahmen sind, brauchen wir auch ein Verfahren, mit dem wir (1) feststellen können, wann ein Ereignis die Vertraulichkeit, Integrität und Verfügbarkeit von Daten gefährdet, für die Meta verantwortlich ist. In einem solchen Fall müssen wir (2) die Situation untersuchen und (3) alle erforderlichen Schritte unternehmen, um festgestellte Lücken zu schließen.

Unser Programm zum Störungsmanagement agiert weltweit und betreut die Prozesse, mit denen wir Datenschutzvorfälle identifizieren, bewerten, minimieren und beheben. Zwar leitet das Privacy- und Data-Practices-Team unser Störungsmanagement, aber bei Datenschutzvorfällen ist jede*r einzelne Meta-Mitarbeiter*in verantwortlich. Wichtige Rollen spielen hier unsere einzelnen verantwortlichen Teams, etwa aus der Rechts- und Produktabteilung. Wir investieren auch weiterhin Zeit, Ressourcen und Energie, um ein komplexes Programm aufzubauen, das sich ständig weiterentwickelt und anpasst. Im Folgenden stellen wir die drei wichtigsten Aspekte unseres Ansatzes vor.

Beim Schutz unserer Nutzer*innen und ihrer Informationen verfolgen wir einen vielschichtigen Ansatz mit mehrfachen Absicherungen, um Fehler zu identifizieren. Als global agierendes Unternehmen hat Meta stark in die Entwicklung verschiedener automatischer Tools investiert, um potenzielle Sicherheitsrisiken so früh und schnell wie möglich zu erkennen und zu beseitigen. Erkennen diese automatischen Systeme einen Vorfall, wird er in Echtzeit gemeldet und möglichst schnell behoben. Manche Vorfälle können sogar automatisch gelöst werden.

Doch egal wie leistungsfähig diese automatischen Systeme werden – wir sind immer auf die Kontrolle und die Sorgfalt unserer Mitarbeiter*innen angewiesen, um Vorfälle proaktiv zu erkennen und zu beheben. Unsere Entwicklungsteams überprüfen ständig unsere Systeme, um Vorfälle zu identifizieren und zu lösen, noch bevor Nutzer*innen davon betroffen sind.

Seit 2011 gibt es Facebooks Bug Bounty-Programm. Dabei helfen externe Forscher*innen, die Sicherheit und den Datenschutz unserer Produkte und Systeme zu verbessern, indem sie uns potenzielle Sicherheitsrisiken melden. Dank dieses Programms können wir Probleme schneller aufspüren und beheben, um unsere Nutzer*innen zu schützen. Durch die Belohnung, die berechtigte Teilnehmer*innen erhalten, setzen wir Anreize für die Weiterentwicklung anspruchsvoller Sicherheitsforschung.

In den letzten 10 Jahren haben schon über 50.000 Tester*innen an unserem Programm teilgenommen. Etwa 1.500 Tester*innen aus 107 Ländern haben in dieser Zeit eine Prämienzahlung erhalten. Einige von ihnen arbeiten heute für die Sicherheits- und Entwicklungsteams von Meta und tragen mit ihrer Arbeit weiterhin zum Schutz aller Nutzer*innen bei.

Wir haben weitreichende Maßnahmen ergriffen, um die Daten unserer Nutzer*innen vor unberechtigtem Zugriff und anderen Risiken zu schützen. Sollte trotzdem einmal ein Vorfall auftreten, setzen wir auf Transparenz, um das Vertrauen in unsere Produkte, Services und Prozesse wieder zu stärken. Dementsprechend dient unser Störungsmanagement nicht nur dazu, Fehler zu beheben und daraus zu lernen – es definiert auch Schritte, um Nutzer*innen angemessen zu informieren. Das kann etwa durch einen Beitrag in unserem Newsroom oder Privacy Matters-Blog geschehen, auf dem wir über Themen berichten, die unsere Nutzer*innen betreffen. Bei Bedarf kooperieren wir außerdem mit Strafverfolgungsbehörden und anderen öffentlichen Stellen.

Kontrolle von Drittanbietern

Drittanbieter sind externe Geschäftspartner von Meta, die nicht zu Meta gehören oder von uns betrieben werden. Die meisten Drittanbieter gehören zu einer von zwei Kategorien: Entweder sie stellen für Meta Dienstleistungen bereit (etwa Anbieter für die Websitegestaltung, „Dritt-Dienstleister“) oder sie nutzen unsere Plattform für ihr Unternehmen (etwa App- oder API-Entwickler*innen). Bei Drittanbietern, die Zugriff auf personenbezogene Daten erhalten, versuchen wir das Datenschutzrisiko mit einem speziellen Programm zur Überwachung und Verwaltung von Drittanbietern zu minimieren. Wir überwachen dabei, welche Risiken der Drittanbieter-Zugriff birgt, und setzen angemessene Datenschutzmaßnahmen um.

Wir haben ein Verfahren entwickelt, um den Datenschutz von Drittanbietern auf Meta zu beurteilen und mögliche Risiken zu minimieren. Die Dienstleister sind gemäß diesem Verfahren an Verträge gebunden, die den Schutz der Privatsphäre vorschreiben. Ihr Risikoprofil entscheidet darüber, wie sie während der Zusammenarbeit überwacht werden. Dazu zählen eine Neubewertung und mögliche Sanktionen bei Vertragsverstößen, unter Umständen auch eine Beendigung der Zusammenarbeit.

Wir haben ein förmliches Verfahren entwickelt, um bei Datenschutz- und Sicherheitsverstößen gegen Drittanbieter vorzugehen und diese gegebenenfalls auszuschließen. Folgende Standards und technische Mechanismen sorgen für bessere Vorgehensweisen durch die Entwickler*innen auf unserer gesamten Plattform:

  • Überprüfung der Datennutzung: Wir haben Verfahren und eine Infrastruktur geschaffen, um dafür zu sorgen, dass externe Entwickler*innen die Überprüfung der Datennutzung durchlaufen. Bei dieser jährlichen Prüfung müssen Entwickler*innen angeben, wozu und in welchem Umfang sie die personenbezogen Daten verarbeiten, auf die sie zugreifen möchten. Außerdem müssen sie bestätigen, dass die Nutzung im Einklang mit den entsprechenden Richtlinien und Nutzungsbedingungen erfolgt. Wir haben neue Fragen eingeführt und die Logik verbessert, um genauere Antworten zu erhalten und ein besseres Verständnis der Entwickler*innen zu gewährleisten. Außerdem haben wir neue Tools entwickelt, um die Kommunikation mit den Entwickler*innen und die Anforderung zusätzlicher Informationen an einem einzigen Ort zentral zu verwalten.
  • Überprüfung der Einhaltung unserer Nutzungsbedingungen: Wir haben technische und administrative Mechanismen eingeführt, um regelmäßig und fortlaufend zu überprüfen, ob Entwickler*innen unsere Plattform-Nutzungsbedingungen erfüllen. Bei Zuwiderhandlungen ergreifen wir standardisierte Durchsetzungsmaßnahmen. Dabei betrachten wir u. a. den Schweregrad, die Art und die Auswirkungen des Verstoßes, einen möglichen Vorsatz oder frühere Verstöße des*der Entwickler*in sowie die Gesetzeslage, um dann angemessen zu reagieren.
  • Sicherheitsstandards für den Datenschutz: Außerdem haben wir Sicherheitsstandards für den Datenschutz entwickelt. Diese Grundsätze für Entwickler*innen zielen darauf ab, die Sicherheitspraktiken auf unserer Plattform und im gesamten Entwicklungs-Ökosystem zu verbessern.
  • Developer Trust Center: Wir haben bei Meta das Developer Trust Center entwickelt. Es handelt sich dabei um eine zentrale Anlaufstelle auf der Meta for Developers-Seite, die Materialien für Drittentwickler*innen zu Themen wie Datenschutz, Datensicherheit und Plattform-Nutzungsbedingungen zusammenträgt. Außerdem finden sich dort Informationen zu Überwachungsmechanismen, mit denen sie interagieren, wie z. B. der App Review, der App Re-Review, der Überprüfung der Datennutzung sowie der neuen datenschutzrechtlichen Beurteilung.

Externer Datenmissbrauch und Scraping

Unser Team für externen Datenmissbrauch besteht aus mehr als 100 Mitarbeitenden, die sich der Erkennung, Untersuchung und Blockierung von Verhaltensmustern widmen, die mit Scraping in Zusammenhang stehen. Scraping ist das automatisierte Sammeln von Daten von einer Website oder App und kann entweder autorisiert oder nicht autorisiert erfolgen. Die Verwendung von Automatisierungsfunktionen für den Zugriff auf oder die Sammlung von Daten von Metas Plattformen ohne unsere Erlaubnis stellt einen Verstoß gegen unsere Nutzungsbedingungen dar.

Damit Nutzer*innen verstehen, wie wir uns gegen nicht autorisiertes Scraping schützen, informieren wir laufend über die Maßnahmen, die wir zum Schutz vor Datenmissbrauch auf unseren Plattform ergriffen haben. Außerdem zeigen wir auf, wie Nutzer*innen ihre Daten am besten schützen können.

Wir planen, auch in Zukunft mehr über unseren Ansatz in Bezug auf Scraping zu veröffentlichen und unsere laufend aktualisierten Maßnahmen, die wir zur Bekämpfung von nicht autorisiertem Scraping ergreifen, fortzusetzen.

Wir haben in Infrastruktur und Tools investiert, um es Scrapern zu erschweren, Daten von unseren Diensten zu sammeln oder daraus Kapital zu schlagen, falls es doch passiert. Beispiele für diese Investitionen sind etwa Übertragungs- und Datenlimits. Übertragungslimits begrenzen die Anzahl der Interaktionen mit unseren Produkten innerhalb eines bestimmten Zeitraums. Datenbeschränkungen wiederum verhindern, dass Nutzer*innen mehr Daten erhalten, als sie für die normale Nutzung unserer Produkte benötigen.

Wir haben unsere Verwendung von intern generierten Nutzer*innen- und Content-IDs geändert, da bei nicht autorisiertem Scraping solche IDs oft erraten oder gekauft werden. Wir haben außerdem neue, pseudonymisierte IDs entwickelt, die das nicht autorisierte Scraping von Daten verhindern, indem sie es Scrapern erschweren, Daten zu erraten, zu verbinden und wiederholt darauf zuzugreifen.

Wir blockieren täglich Milliarden von mutmaßlichen nicht autorisierten Scraping-Versuchen auf Facebook und Instagram. Wir haben bereits eine Reihe von Maßnahmen gegen nicht autorisiertes Scraping ergriffen, darunter die Sperrung von Konten und die Aufforderung an Unternehmen, die gescrapte Daten hosten, diese Daten zu löschen. Das Team hat von Mai 2020 bis November 2022 mehr als 1.000 Untersuchungen abgeschlossen und über 1.200 Durchsetzungsmaßnahmen ergriffen.

Datenschutz-Review

Die Datenschutz-Review ist ein zentraler Bestandteil der Entwicklung neuer und aktualisierter Produkte, Services und Praktiken bei Meta. Im Rahmen dieses Prozesses bewerten wir, wie Daten in neuen oder aktualisierten Produkten, Services und Praktiken verwendet und geschützt werden sollen. Wir arbeiten daran, potenzielle Datenschutzrisiken zu erkennen, die mit der Erfassung, Verwendung oder Weitergabe personenbezogener Daten verbunden sind, und entwickeln Maßnahmen zur Minimierung dieser Risiken. Das Ziel dieses Prozesses ist es, den Nutzen unserer Produkte und Services für unsere Community zu optimieren und gleichzeitig im Vorfeld alle potenziellen Risiken zu erkennen und zu verringern. Der Vorgang, bei dem verschiedene Abteilungen eng zusammenarbeiten, steht unter der Leitung unseres „Privacy Review“-Teams. Die Durchführung betreut ein internes Team aus Datenschutzexpert*innen verschiedener Disziplinen, etwa aus der Rechts- oder Strategieabteilung. Die einzelnen Mitglieder verfügen über Erfahrung im Bereich Produkt- und Softwareentwicklung, Rechtsvorschriften sowie Sicherheit und Richtlinien. Diese Gruppe trifft im Rahmen der Datenschutz-Review Entscheidungen und gibt Empfehlungen ab.

Das abteilungsübergreifende Team untersucht Projekte hinsichtlich potenzieller Datenschutzrisiken und legt fest, ob vor dem Projektstart zusätzliche Änderungen notwendig sind, um diese Risiken zu vermeiden. Kommt es dabei innerhalb des funktionsübergreifenden Teams zu Unstimmigkeiten über das weitere Vorgehen, folgt in der nächsten Eskalationsstufe eine Überprüfung durch ein Führungsteam und bei Bedarf durch den CEO.

Bei der Entwicklung neuer oder aktualisierter Produkte, Services oder Vorgehensweisen im Rahmen der Datenschutz-Review orientieren wir uns an unseren internen Datenschutzerwartungen. Dazu gehören:

  1. Zweckbindung: Daten sind nur für einen bestimmten und klar ersichtlichen Vorgang zu verarbeiten, der Nutzer*innen einen Mehrwert bietet.
  2. Datensparsamkeit: Daten sind nur in dem Umfang zu erfassen und zu erstellen, wie er für den angegebenen Zweck notwendig ist.
  3. Datenaufbewahrung: Daten sind nur so lange zu speichern, wie sie für den angegebenen Zweck tatsächlich benötigt werden.
  4. Verhinderung von externem Datenmissbrauch: Daten sind vor Missbrauch, unbeabsichtigtem Verlust und Zugriff durch unberechtigte Dritte zu schützen.
  5. Transparenz und Kontrolle: Das Produktverhalten und Informationen zur Datenverarbeitung sind leicht verständlich, wahrheitsgemäß und proaktiv zu vermitteln. Nutzer*innen sollen das Verhalten unserer Produkte, wo immer möglich, selbst bestimmen können.
  6. Datenzugriff und -verwaltung: Informationen, die wir über unsere Nutzer*innen erfassen oder erstellen, sollen für diese zugänglich und zu verwalten sein.
  7. Fairness: Wir entwickeln Produkte, die Risiken für gefährdete Bevölkerungsgruppen erkennen und minimieren können, um einen Mehrwert für alle Nutzer*innen zu schaffen.
  8. Verantwortung: Unsere Produkte, Praktiken und Entscheidungen stehen im Einklang mit unseren internen Abläufen und unterliegen technischen Kontrollen.

Wir haben außerdem in technische Reviews und Tools investiert, um die Datenschutz-Review auch im großen Maßstab durchführen zu können.

  • Zentrales Tool: Dazu haben wir ein zentrales Tool für die Datenschutz-Review entwickelt, das für die Dauer eines Projekts zum Einsatz kommt. Damit können einzelne Teams alle Informationen zu ihrer Datenschutz-Review verwalten. Sie können etwa die externen Datenschutzanforderungen einsehen und verwalten, zu denen wir uns als Unternehmen verpflichtet haben.
  • Review der Implementierung: Wir haben zudem eine Review der technischen Implementierung konzipiert. Damit wird die technische Umsetzung unserer Datenschutzverpflichtungen vor dem Produkt-Launch analysiert, verifiziert und dokumentiert. Dieser Vorgang ist Teil von Metas internen Entwicklungs-Tools. Mit ihnen sorgen wir dafür, dass die bei der Datenschutz-Review getroffenen Entscheidungen und Anforderungen auch unverändert in unsere Software übernommen werden.
2. ERFOLGE BEIM DATENSCHUTZ

Wir investieren kontinuierlich in innovative Produkte, welche die Privatsphäre unserer Nutzer*innen schützen.

Another photo of Meta CEO Mark Zuckerberg addressing employees at an outdoor town hall

„Unsere Produkte sind besser, zuverlässiger und sicherer, weil wir den Schutz der Privatsphäre tief in unseren Code einbauen.“


– Naomi Gleit, Head of Product

Der Schutz der Privatsphäre unserer Nutzer*innen steht bei der Entwicklung und Aktualisierung unserer Produkte immer im Mittelpunkt. Unsere Produkte enthalten Standardeinstellungen für die Privatsphäre, die es den Nutzer*innen leichter machen, selbst festzulegen, wie viel Privatsphäre sie sich wünschen. Auch bei der Entwicklung neuer Produkte steht der Datenschutz jederzeit im Mittelpunkt.

Datenschutz liegt im Fokus von Metas Zukunftsvision. Deshalb legen wir großen Wert darauf, die Privatunterhaltungen unserer Nutzer*innen zu schützen. Wir möchten Menschen die Möglichkeit bieten, privat mit ihren Freund*innen und Verwandten zu kommunizieren. Sie sollen darauf vertrauen können, dass niemand Zugriff auf ihre persönlichen Unterhaltungen hat.

Privatunterhaltungen bieten wir derzeit per WhatsApp, im Messenger und bei Instagram-Direktnachrichten („DMs“) an. Die Ende-zu-Ende-Verschlüsselung von WhatsApp stellt sicher, dass nur die beiden Gesprächsteilnehmenden Nachrichten lesen und abhören können – und sonst niemand. Im Messenger und bei Instagram-Direktnachrichten haben Nutzer*innen die Möglichkeit, Nachrichten durch eine Ende-zu-Ende-Verschlüsselung zu schützen, damit nur die Gesprächsteilnehmenden darauf zugreifen können.

Letztes Jahr haben wir zusätzliche Funktionen für die optionale Ende-zu-Ende-Verschlüsselung von Chatnachrichten im Messenger angekündigt. Außerdem haben wir angekündigt, dass wir einen sicheren Nachrichtenspeicher und eine standardmäßige Ende-zu-Ende-Verschlüsselung im Messenger testen. Wir haben die optionale Ende-zu-Ende-Verschlüsselung in Instagram-Direktnachrichten erweitert – und zwar Anfang 2022 zunächst in der Ukraine.

Wir erwarten, dass sich zukünftige Versionen von Messenger, Instagram-Direktnachrichten und WhatsApp zu den wichtigsten Kommunikationswegen im Meta-Netzwerk entwickeln. Deshalb sind wir darauf bedacht, diese Apps noch schneller und nutzungsfreundlicher zu machen sowie ihren Schutz durch Ende-zu-Ende-Verschlüsselung weiter zu verbessern. Wir planen, weitere Möglichkeiten für private Interaktionen mit Freund*innen und Gruppen zu schaffen. Außerdem bieten wir eine Reihe von Kommunikationsplattformen über Meta an, um Nutzer*innen in einem öffentlicheren Rahmen zusammenzubringen – z. B. auf Facebook und im Metaversum über Quest-Geräte und Horizon Worlds, über Community-Chats in Facebook-Gruppen oder das gemeinsame Ansehen von Videos in einem Livestream. Einige dieser Plattformen ermöglichen die Anpassung an individuelle Präferenzen oder erfordern zusätzliche Integritätsmaßnahmen, um die Einhaltung unserer Gemeinschaftsstandards zu gewährleisten.

Wir freuen uns, den mehr als zwei Milliarden Nutzer*innen weitere Möglichkeiten zum Schutz ihrer Privatsphäre anbieten zu können. Nutzer*innen sollten das Recht haben, ihre Erfahrung zu personalisieren. Wir eine Verantwortung gegenüber unseren Nutzer*innen, einen klaren, gründlichen Datenschutzansatz zu verfolgen, indem wir den Menschen das sicherste private Messaging-Erlebnis für ihren Nachrichtenaustausch mit Freund*innen bieten.

Auf WhatsApp und im Messenger bieten wir nun die Möglichkeit, selbstlöschende Nachrichten zu senden. In einem persönlichen Chat kann jede*r der beiden Teilnehmenden selbstlöschende Nachrichten ein- oder ausschalten. In Gruppen haben Admins diese Möglichkeit.

Uns ist bewusst, dass für junge Menschen besondere Datenschutzanforderungen gelten müssen. Deshalb gehen unsere Produkt-Teams ausdrücklich auf diese Anforderungen ein. Unser Ziel ist es, im besten Interesse unserer jungen Nutzer*innen zu handeln und angepasste Dienste anzubieten. Dazu stehen wir mit Eltern, Aufsichtsbehörden, politischen Entscheidungsträger*innen und Expert*innen aus der Zivilgesellschaft in Kontakt.

Wir nutzen eine Reihe verschiedener Methoden, um ein ausgewogenes Verhältnis zwischen den Vorteilen von Meta-Produkten für junge Menschen und ihrer Sicherheit zu finden. So möchten wir dafür sorgen, dass unsere Produkte altersgerechte Maßnahmen enthalten.

Zu unseren jüngsten Bemühungen im Bereich des Jugendschutzes gehört, dass alle Personen in einem bestimmten Alter standardmäßig private Konten haben. So ist es für potenziell verdächtige Konten schwieriger, junge Menschen zu finden. Außerdem schränken wir die Möglichkeit für Werbetreibende ein, Anzeigen gezielt an junge Menschen zu richten. Wir entwickeln aktuell neue Möglichkeiten, das Alter unserer Nutzer*innen datenschutzkonform zu überprüfen. In Kooperation mit Yoti testen wir eine Technologie, die es Nutzer*innen in bestimmten Regionen und Anwendungsfällen ermöglicht, ihr Alter per Gesichtserkennung schätzen und verifizieren zu lassen. Außerdem haben wir den Familienbereich auf Instagram und Quest eingeführt. Er soll Eltern und Erziehungsberechtigten helfen, die Onlineerlebnisse ihrer Teenager*innen mithilfe von Elternaufsicht-Tools und Informationen von Expert*innen besser zu überwachen. Im Rahmen des globalen Co-Design-Programms „TTC Labs“ haben wir junge Menschen, Eltern, Erziehungsberechtigte und Expert*innen in unseren Produktdesignprozess eingebunden. Die wichtigsten Ergebnisse dieser globalen Initiative haben wir in einem Branchen-Bericht veröffentlicht. Für unsere jüngsten Nutzer*innen bietet Messenger Kids ein altersgerechtes Messaging- und Kommunikationserlebnis. Eltern haben hier die Möglichkeit, die Aktivitäten ihrer Kinder zu überwachen und zu überprüfen.

Wir möchten, dass junge Menschen sich in den Meta-Produkten wohlfühlen. Gleichzeitig steht ihre Sicherheit und der Schutz ihrer Privatsphäre für uns an erster Stelle. Wir bleiben weiter im Dialog mit Jugendlichen, Eltern, Gesetzgebern und Expert*innen, um Produkte so zu gestalten, dass sie jungen Nutzer*innen Spaß machen und ihre Eltern sie dort gut geschützt wissen.

Das neue Virtual-Reality-Headset Meta Quest Pro verfügt über nach innen gerichtete Sensoren, die bessere Kommunikation und höheren Komfort ermöglichen. Nutzer*innen können sich dadurch noch besser ausdrücken und noch tiefer in das VR-Erlebnis eintauchen. Diese Sensoren ermöglichen außerdem das Eye-Tracking-Feature. Bei der Entwicklung des Einwilligungsvorgangs für das Eye-Tracking-Feature der Meta Quest Pro haben wir uns von Datenschutzexpert*innen beraten lassen. Sie haben uns bei der Entwicklung des Designs und der Formulierungen unterstützt und begleiten unsere Pläne für Opt-In-Datenschutzeinstellungen auf System- und App-Ebene. In unserem Whitepaper, das wir zum Launch von Meta Quest Pro veröffentlicht haben, erfährst du mehr über die verantwortungsvolle Entwicklung des Eye-Tracking-Features und unsere Zusammenarbeit mit Forscher*innen und politischen Entscheidungsträger*innen.

Im Jahr 2022 haben wir in einem Whitepaper die Datenschutzprinzipien dargelegt, die wir bei der Verbesserung der Sicherheit und Integrität unserer Produkte berücksichtigen müssen. Um zu veranschaulichen, wie wir diese Datenschutzprinzipien in der Praxis umsetzen, haben wir in fünf Fallstudien die größten Sicherheitsherausforderungen für unsere Apps aufgezeigt. In der Fallstudie zum Thema Hassrede auf Facebook und Instagram zeigen wir zum Beispiel, wie wir Hassrede mithilfe von automatischen Systemen eindämmen. Wir glauben, dass wir unser Ziel, Hassrede zu entfernen, erreichen können, wenn wir statt persönlicher Kontodaten in erster Linie Inhaltsdaten verwenden.

Wir legen Wert auf transparente Kommunikation. Dazu zählt auch, Menschen über unser Vorgehen zu informieren und aufzuklären bzw. dieses zu erläutern. Die entsprechenden (externen) Informationen müssen schnell und einfach zugänglich sein.

  • In unserer Datenrichtlinie beschreiben wir, wie Meta personenbezogene Daten erfasst, verarbeitet, verwendet, speichert und weitergibt. Unsere Datenschutzrichtlinie wurde vor Kurzem aktualisiert. Damit möchten wir sicherstellen, dass wir unsere Datenpraktiken klarer und verständlicher darstellen, mehr Transparenz bieten und unser aktuelles Vorgehen genauer erläutern, einschließlich praktischer Beispiele für die Nutzer*innen, audiovisueller Ressourcen und direktem Zugriff auf relevante Einstellungen. Mit diesen Änderungen an der Richtlinie möchten wir Nutzer*innen mehr einbinden. Dazu gehört auch die Bereitstellung der Tools, die Nutzer*innen benötigen, um fundierte Datenschutzentscheidungen zu treffen und ihre Datenschutzrechte auszuüben.
  • Das Privacy Center ist ein Ort, an dem Menschen unsere Prozesse besser kennenlernen und so fundierte Entscheidungen über ihre Privatsphäre treffen können, die ihren Anforderungen gerecht werden. Durch Aufklärung und Zugang zu Datenschutz- und Sicherheitseinstellungen gehen wir auf einige der häufigsten Datenschutzbedenken der Milliarden von Menschen ein, die täglich ihre Zeit mit uns verbringen. Das Privacy Center verfügt über mehrere Module, darunter solche zur Freigabe, Erfassung, Nutzung und Sicherheit sowie zu Jugendlichen und Werbung, um bei einem Problem oder Anliegen direkt die relevanten Datenschutz- und Sicherheitseinstellungen anzuzeigen, die wir im Laufe der Jahre in unseren Apps und Diensten eingerichtet haben. Du findest es in der mobilen Web- oder Desktop-Version von Facebook unter „Einstellungen und Privatsphäre“ oder auf unserer Seite zu Privatsphäre und Sicherheit.
  • Im Privatsphäre-Bereich unseres Newsrooms bieten wir weiterführende Informationen zum Datenschutz bei einem bestimmten Feature oder Thema. Alternativ informieren wir Nutzer*innen durch Hinweise in der App bzw. dem Produkt oder mithilfe von Kontexthinweisen über ihre Kontrollmöglichkeiten. So erklären wir ihnen, wie wir ihre Daten im Interesse eines verbesserten Nutzungserlebnisses verarbeiten.

Wir möchten, dass unsere Nutzer*innen verstehen, welche Informationen sie teilen und wie diese genutzt werden. Um ihnen mehr Transparenz und Kontrolle zu bieten, haben wir verschiedene Datenschutz-Tools entwickelt:

  • Der Privatsphäre-Check führt Nutzer*innen durch wichtige Privatsphäre- und Sicherheitseinstellungen auf Facebook. Er hilft ihnen dabei, die Sicherheit ihres Kontos zu erhöhen und zu verwalten, wer sehen kann, was sie teilen, bzw. wie ihre Informationen verwendet werden.
  • Das Tool Aktivitäten außerhalb von Facebook bietet eine Zusammenfassung der Aktivitäten, die Unternehmen und Organisationen mit uns über die Interaktionen von Personen teilen, wie z. B. den Besuch ihrer Apps oder Websites. Nutzer*innen können ihre vergangenen Aktivitäten dort auch von ihrem Konto trennen.
  • Die Funktion Zugriff auf deine Informationen bietet Nutzer*innen einen zentralen Ort, an dem sie ihre Facebook-Informationen abrufen können. Seitdem arbeiten wir daran, diese Informationen verständlicher darzustellen. Dazu gliedern wir die Datenkategorien in neue Unterkategorien wie „Informationen zu Werbung“, „Kontakte“ und „Apps und Websites außerhalb von Facebook“. Über die neue Suchfunktion können Nutzer*innen zudem schneller einzelne Datenkategorien finden und auf Informationen darüber zugreifen, wie Nutzungsdaten zur Personalisierung von Facebook verwendet werden können.
  • Über das Aktivitätenprotokoll können Nutzer*innen ihre alten Beiträge an einem zentralen Ort archivieren oder löschen. Wir hatten Feedback erhalten von Nutzer*innen und Datenschutzexpert*innen hinsichtlich der eingeschränkten Möglichkeiten bei der gleichzeitigen Verwaltung mehrerer alter Beiträge, Bilder und anderer Inhalte. Deshalb haben wir neue Kontrollmöglichkeiten eingeführt, um alte Inhalte archivieren und so vor anderen Nutzer*innen verbergen zu können, ohne sie endgültig löschen zu müssen.
  • Die Funktion Aktivitäten verwalten ermöglicht die Verwaltung von Beiträgen in großen Mengen mit Filtern, die das Sortieren und Auffinden der gesuchten Inhalte erleichtern, z. B. Beiträge mit bestimmten Personen oder aus einem bestimmten Zeitraum. Die Funktion bietet auch die Option, mehrere alte Beiträge gleichzeitig in den Papierkorb zu verschieben. Dort werden Beiträge nach 30 Tagen endgültig gelöscht, wenn Nutzer*innen sie nicht schon vorher manuell löschen oder wiederherstellen.
3. INVESTITIONEN IN DIE ZUKUNFT

Wir investieren in innovative Technologien, um die Privatsphäre unserer Nutzer*innen zu schützen.

„Wir investieren erheblich in Infrastruktur, um den Schutz von Nutzungsdaten von vornherein in unsere Produkte zu integrieren. So können wir weiterhin innovative Produkte mit einem echten Mehrwert für unsere Nutzer*innen entwickeln und gleichzeitig ihre Privatsphäre schützen.“


– Michel Protti, Chief Privacy Officer for Product

Photo of two people collaborating

Das Meta Privacy- und Data-Practices-Team und das Infrastruktur-Team entwickeln gemeinsam eine datenschutzorientierte Infrastruktur, d. h. skalierbare und innovative Infrastruktur-Lösungen, die es unseren Ingenieur*innen leichter machen, bei der Entwicklung neuer Produkte die entsprechenden Datenschutzanforderungen zu berücksichtigen. So können wir – statt auf Menschen und manuelle Prozesse – auch verstärkt auf automatisierte Prozesse setzen, um zu überprüfen, ob wir unseren Datenschutzpflichten nachkommen.

Wir setzen innovative Tools und Technologien auf allen Meta-Plattformen ein, um die Menge an Nutzungsdaten, die wir erfassen und verwenden, proaktiv zu reduzieren.

Bei der Entwicklung unserer Produkte achten wir darauf, wenig oder nicht genutzte Funktionen zu entfernen, ohne das Nutzungserlebnis zu beeinträchtigen. Wir haben zum Beispiel neue Tools eingeführt, mit denen unsere Ingenieur*innen einzelne Produkte und Codes einfacher löschen können, ohne dabei versehentlich Fehler zu verursachen. Diese Tools erkennen durch Automatisierung und intelligente Entscheidungslogik, was die Ingenieur*innen manuell löschen müssen. Außerdem erfassen und speichern wir Daten immer entsprechend des Produktnutzens für unsere Nutzer*innen. Wir haben folgende standortbasierte Funktionen auf Facebook entfernt, weil sie kaum genutzt wurden: Sensible Profilfelder, Standortverlauf, Hintergrund-Ortung, Wetterwarnungen und Freund*innen in der Nähe. Dadurch kann Meta Daten löschen, wenn sie nicht mehr benötigt werden, und die Erfassung nicht benötigter Daten vermeiden.

Wir entfernen aber nicht nur Produkte und verbessern unser Vorgehen – darüber hinaus investieren wir auch in Privacy Enhancing Technologies. Dabei handelt es sich um Technologien auf Grundlage fortschrittlicher kryptographischer und statistischer Methoden, mit deren Hilfe wir möglichst wenige Informationen erfassen, verarbeiten und verwenden müssen. Unser Applied Privacy Technology-Team entwickelt solche Datenschutztechnologien für alle Teams bei Meta, die sich bei ihren Produkten und Diensten auf die De-Identifizierung von Daten bei der Erfassung und die Implementierung von Ende-zu-Ende-Verschlüsselung konzentrieren.

Unser Anonymous Credential Service (ACS), eine Datenschutztechnologie, die wir vor Kurzem als Open Source zur Verfügung gestellt haben, ermöglicht es unseren Clients, Nutzer*innen zu authentifizieren, ohne deren Identität offenzulegen. Mithilfe dieser Technologie haben wir ein Repository erstellt, mit dem unsere Ingenieur*innen diese Funktion ganz einfach umsetzen können. So können wir Betrugsversuche eindämmen und gleichzeitig die Privatsphäre unserer Nutzer*innen schützen und die Menge der erfassten Daten reduzieren.

Für die Entwicklung technischer Lösungen, die durch ihre Anpassbarkeit immer neuen Anforderungen an den Datenschutz gerecht werden, gilt es zunächst, die technischen Grundlagen zu schaffen. Dazu zählt etwa die Verbesserung der Datenverwaltung über den gesamten Lebenszyklus hinweg. Ein Beispiel dafür sind unsere umfangreichen Bemühungen, um die Löschung von Nutzer*innendaten auf deren Wunsch hin zu beschleunigen und zu verbessern.

Unsere Nutzer*innen erwarten, dass wir ihre Daten auf ihre Anfrage hin ordnungsgemäß löschen. Derzeit ist das branchenweite Vorgehen beim Löschen von Daten allerdings sehr aufwendig. Entwickler*innen müssen manuell einen ständig wiederkehrenden Code schreiben, der jedes Update und jede Änderung eines Produkts berücksichtigt. Nur so ist gewährleistet, dass die Löschung wie gewünscht ausgeführt werden kann. Doch wegen der komplexen Serverstruktur moderner Datenspeicherung sind auch hier Fehler nicht auszuschließen.

Wir haben ein Framework und eine Infrastruktur geschaffen, die das Risiko potenzieller Fehler verringern, die durch die Arbeit von Entwickler*innen in einem stark manuellen Prozess verursacht werden können. Entwickler*innen versehen die gesammelten Daten mit dem beabsichtigten Löschverhalten (z. B. „Wenn ein*e Nutzer*in einen Beitrag löscht, lösche auch alle Kommentare“). Das Framework und die Infrastruktur löschen dann die Daten an den verschiedenen Speicherorten – mit dokumentierter Verlässlichkeit. Indem wir Entwickler*innen mit dieser technischen Infrastruktur den Löschvorgang erleichtern, können wir auch sicherstellen, dass wir uns schon früh im Produktentwicklungsprozess mit dem Thema Löschung befassen.

Wir bearbeiten schon heute jeden Tag Milliarden von Löschvorgängen mit diesem Framework und sorgen dafür, dass schon bald alle Systeme von Meta abgedeckt werden.

Künstliche Intelligenz unterstützt Back-End-Dienste wie Personalisierung, Empfehlungen und Ranking, die den Nutzer*innen unserer Produkte und Dienste ein nahtloses, individuelles Erlebnis bieten. Wir bei Meta glauben, dass es wichtig ist, den Menschen Tools und Ressourcen an die Hand zu geben, die ihnen helfen, zu verstehen, wie KI ihre Produkterfahrung prägt und wie sie funktioniert. Im Folgenden erläutern wir einige Beispiele.

KI-Systemkarten

Wir wissen, dass wir unsere verschiedenen Zielgruppen genau kennen müssen, wenn wir unsere KI-Systeme transparent gestalten wollen. Nutzer*innen, Entwickler*innen für maschinelles Lernen und KI-Entscheidungsträger*innen haben unterschiedliche Bedürfnisse in Bezug auf die Transparenz und Erklärbarkeit von KI. Eine der Möglichkeiten zur Verbesserung der Erklärbarkeit ist die Transparenz auf KI-Systemebene. Vor Kurzem haben wir den nächsten Schritt auf diesem Weg getan und den Prototyp einer KI-Systemkarte veröffentlicht, die einen Einblick in die zugrunde liegende Architektur eines KI-Systems geben und die Funktionsweise der KI – basierend auf dem individuellen Verlauf, den Präferenzen oder den Einstellungen der Nutzer*innen – besser erläutern soll. Die Pilot-Systemkarte, die wir entwickelt haben und weiterhin testen, erläutert das Ranking im Instagram-Feed. Dabei werden noch nicht gesehene Beiträge von Konten, denen eine Person folgt, in eine Rangfolge gebracht, die davon abhängt, wie wahrscheinlich es ist, dass sich diese Person für sie interessiert. Wir haben außerdem eine KI-Systemkarte zu einem anderen System veröffentlicht, das über Metas großes Netzwerk von Creator*innen aktuelle Trends im Handel erkennt: Social Commerce Graph.

Jetzt führen wir weitere Tests durch, um KI-Systemkarten in großem Maßstab zu erstellen und so einen wiederholbaren Prozess zu schaffen, mit dem wir komplexe KI-Systeme erklären können. Damit möchten wir unseren Nutzer*innen helfen, die Technologien, die sie täglich nutzen, besser zu verstehen.

Entwicklung neuer Tools zur besseren Erläuterung von KI

KI greifbarer zu machen, ist ein branchen- und disziplinübergreifender Dialog. Unternehmen, Aufsichtsbehörden und Wissenschaftler*innen testen Möglichkeiten, die Funktionsweise von KI durch verschiedene Anleitungen und Rahmenwerke besser zu vermitteln. So sollen Menschen im Alltag von einem besseren Verständnis künstlicher Intelligenz profitieren. Da KI-Systeme äußerst komplex sind, ist es sowohl wichtig als auch eine Herausforderung, eine Dokumentation zu entwickeln, die dem Bedürfnis der Menschen nach Transparenz sowie ihrem Wunsch nach verständlichen Erklärungen gerecht wird. Datenblätter, Modellkarten, Systemkarten und Informationsblätter sind daher für unterschiedliche Zielgruppen bestimmt. Im Rahmen unseres Open-Loop-Programms haben wir mit Entwickler*innen und Aufsichtsbehörden zusammengearbeitet, um gemeinsam einen Prototyp für KI-Transparenz und -Erklärbarkeit zu entwickeln und zu testen. Dabei achten wir genau darauf, wie viel Transparenz sich die verschiedenen Zielgruppen hinsichtlich ihrer Produkterfahrungen wünschen. Gemeinsam mit TTC Labs haben wir außerdem den Bericht Personenorientierte Ansätze zur algorithmischen Erklärbarkeit veröffentlicht.

Bei all diesen Schritten konzentrieren wir uns weiterhin auf sinnvolle KI-Transparenzinitiativen, die für verschiedene Zielgruppen nützlich sind. Wir hoffen, dass AI-Systemkarten sowohl von Expert*innen als auch von Laien verstanden werden können und einen einzigartigen, tiefen Einblick in die sehr komplexe Welt der Schnittstelle zwischen KI-Systemen und Menschen bieten – und zwar auf eine für Meta wiederholbare und skalierbare Weise. Die Entwicklung eines Frameworks, das technisch akkurat ist, die Nuancen der Funktionsweise von KI-Systemen in der Größenordnung von Meta widerspiegeln kann und für Menschen, die unsere Technologien täglich nutzen, leicht verständlich ist, ist ein schwieriges Unterfangen. Das gilt besonders, da wir den Stand der Technik in diesem Bereich immer weiter vorantreiben.

4. ZUKÜNFTIGES ENGAGEMENT FÜR DEN DATENSCHUTZ

Wir verpflichten uns dem Datenschutz und seiner ständigen Verbesserung.

„Wir wollen beim Datenschutz alles richtig machen. Dazu investieren wir fortlaufend und ziehen als Unternehmen gemeinsam an einem Strang. Bei Meta sind alle dafür verantwortlich, dass wir dieses Ziel erreichen.“ – Michel Protti, Chief Privacy Officer for Product

Die Daten und die Privatsphäre unserer Nutzer*innen zu schützen, ist entscheidend für unser Unternehmen und unsere Zukunftspläne. Deshalb verfeinern und verbessern wir unser Datenschutzprogramm und unsere Produkte ständig und reagieren auf neue Erwartungen und technologische Entwicklungen. Wir arbeiten mit politischen Entscheidungsträger*innen und Datenschutzexpert*innen zusammen, um gemeinsam Lösungen für die größten Herausforderungen unserer Zeit zu finden. Für uns ist es selbstverständlich, dass wir unsere Fortschritte im Bereich Datenschutz transparent kommunizieren.