Der Deutsche Juristinnenbund e.V. (djb) nimmt anlässlich der anstehenden Evaluierung der DSGVO Stellung.[1] Der djb ist ein unabhängiger frauenpolitischer Verband, in dem sich Juristinnen, Volks- und Betriebswirtinnen zusammengeschlossen haben. Der Verband setzt sich für eine Fortentwicklung des Rechts und für eine geschlechtergerechte Gesellschaft ein.
Der djb fordert in der DSGVO
- eine Verarbeitung personenbezogener Daten in Form des Sammelns, Zusammenführens und Auswertens von Informationen zu Nutzer*innen und zum Nutzungsverhalten durch Social Media-Anbieter sowie Betreiber von Online-Plattformen insbesondere zum Zwecke der kommerziellen und/oder politischen werblichen Ansprache der Nutzer*innen ausdrücklich zu verbieten.
- Verantwortliche einer automatisierten Verarbeitung nach Art. 22 DSGVO ausdrücklich zu verpflichten, sowohl zum Zeitpunkt der Festlegung der Mittel als auch zum Zeitpunkt der eigentlichen Verarbeitung geeignete technische und organisatorische Maßnahmen zu treffen, die darauf ausgerichtet sind, dass Datensätze, auf deren Grundlage Entscheidungen getroffen werden und die Einzelpersonen diskriminieren oder schädigen können, ausreichend repräsentativ insbesondere auch hinsichtlich des Geschlechts sind.
- in den Art. 25 DSGVO, der die Grundprinzipien „Privacy by Design“ und „Privacy by Default“ regelt, eine "Equality by Design" Bestimmung ausdrücklich aufzunehmen.
Begründung
I. Forderung des Verbotes der Verarbeitung personenbezogener Daten in Form des Sammelns, Zusammenführens und Auswertens von Informationen zu Nutzer*innen und zum Nutzungsverhalten durch Social-Media-Anbieter sowie Betreiber von Online-Plattformen insbesondere zum Zwecke der kommerziellen und/oder politischen werblichen Ansprache der Nutzer*innen
Von großen Social-Media-Anbietern sowie Betreibern von Online-Plattformen werden gigantische Mengen personenbezogener Daten in Form eines exzessiven Sammelns, Zusammenführens und Auswertens von Informationen zu Nutzer*innen und zum Nutzungsverhalten u.a. zum Zwecke der gezielten werblichen Ansprache der Nutzer*innen verarbeitet. Die werbliche Ansprache erfolgt aufgrund komplexer algorithmenbasierter Entscheidungen unter Verwendung sämtlicher erhobener individueller Nutzungsinformationen. Regelmäßig fehlt dafür eine Einwilligung. Denn diese Form der Profilbildung ist in höchsten Maße intransparent und damit mangels einer „in informierter Weise“ abgegebenen Willensbekundung nicht von dem Erlaubnistatbestand des Art. 6 Abs. 1 lit. a) DSGVO gedeckt. Nutzer*innen können durch fehlende Transparenz sowie der steigenden Komplexität im Zusammenhang mit den Einwilligungsdialogen der Consent-Banner nicht absehen, wie ihre Daten verarbeitet werden oder wie getätigte Einwilligungen widerrufen werden können. Sie verlieren dadurch die Kontrolle über ihre Daten und den Zugriff auf diese. Damit werden personenbezogene Daten der Nutzer*innen in unzulässiger Weise verarbeitet und in der Folge sind auch die darauf aufsetzenden kommerziellen und/oder politischen werblichen Ansprachen der Nutzer*innen unzulässig.
Das Ausspielen personalisierter Werbung auf Basis der weitverbreiteten ungeprüften Einwilligungsrealitäten des Profilings durch Social-Media-Anbieter sowie Betreiber von Online-Plattformen hat nachweislich schädliche Folgen für die Geschlechtergerechtigkeit.
1. Gesundheitliche Folgen kommerzieller werblicher Ansprachen für Nutzerinnen
Laut des Welt-Mädchenberichts 2020[2] ist der Alltag von Mädchen und Frauen in den sozialen Netzwerken geprägt von Beschimpfungen, Drohungen, sexueller Belästigung und der Angst vor Demütigungen. Facebook (Meta) trägt nach Aussagen seiner ehemaligen Mitarbeiterin Haugen mit seinem Dienst Instagram bei Mädchen dazu bei, Probleme mit dem eigenen Körperbild zu entwickeln und schadet ihrer körperlichen und geistigen Gesundheit.[3] Mit perfekten Bildern werde Druck ausgeübt, die zu Depressionen, Essstörungen und zum Teil auch zu lebensbedrohlichen Zuständen führen können. Facebook habe davon gewusst und keine Maßnahmen dagegen ergriffen[4]. Zu TikTok sind ähnliche Szenarien bekannt.
Der European Data Protection Supervisor (EDSB) fordert schon lange ein Verbot gezielter Online-Werbung auf Basis des allgegenwärtigen Trackings.[5] Gleiches muss auch für Empfehlungssysteme gelten.
Die EU legt zwar mit dem Digital Service Act (DSA) den großen Online-Plattformen Transparenzpflichten auf, so dass sie in ihren AGBs die wichtigsten Parameter der Empfehlungssysteme nennen müssen, damit Nutzer*innen sie ändern oder beeinflussen können (Art. 27 DSA). Auch wenn zusätzlich noch ein „Online-Schutz“ für Minderjährige eingezogen wurde (Art. 28 DSA) reichen die Regelungen aber nicht zur Beseitigung der oben aufgezeigten schädlichen Folgen aus. Die Empfehlungssysteme sind so komplex, dass Unternehmen kein Interesse daran haben, diesbezügliche Betriebs- und Geschäftsgeheimnisse offen zu legen. Informationen zu Parametern in den AGBs sind deplatziert, da sie in aller Regel wegen ihres Umfangs nicht gelesen werden. Formate des Minderjährigen-Schutzes können viel zu leicht umgangen werden.
2. Tracking und Microtargeting befördern Antifeminismus und Fragmentierungen der Gesellschaft
In Europa mehren sich Einzelpersonen und Personengruppen, die den Feminismus zum Feindbild erklären.[6] Social-Media-Anbieter sowie Betreiber von Online-Plattformen tragen mit gezielter werblicher Ansprache dazu bei. Die EU-KOM hat dieses Phänomen bereits erkannt. Nach dem Entwurf für eine Verordnung über die Transparenz und das Targeting politischer Werbung vom 25.11.2021[7] gerät unsere Demokratie durch gezielte Desinformation bei gleichzeitig zunehmender Diversifizierung der Akteure, die rasche Entwicklung neuer Technologien und verstärkte Verbreitung manipulativer Eingriffe zunehmend in Gefahr. Infolge von Targeting- und Verstärkungstechniken wird digital maßgeschneiderte politische Werbung für Einzelpersonen oder Personengruppen auf Basis undurchsichtiger Datensammlungen platziert. Dieser Gefahr soll Einhalt geboten werden.
Das EP schrieb in seinen Abänderungen des VO-Vorschlagstextes in die Erwägungsgründe 47a, 47d[8], dass die nach der DSGVO bestehenden Möglichkeiten, Werbung rechtmäßig auf Einzelpersonen zuzuschneiden und an diese zu richten, einem systematischen Missbrauch ausgesetzt sei. Dies gelte insbesondere im Hinblick auf die Einholung der freien Einwilligung durch Einzelpersonen nach vorheriger Aufklärung. Dieses Problem kann nach Ansicht des EP nur durch eine Änderung der DSGVO und nicht im Rahmen dieser Verordnung gelöst werden. Dazu fordert das EP die Regelungen der DSGVO um weitere Einschränkungen zu ergänzen, die in Form strikter Einschränkungen der Verarbeitung personenbezogener Daten zum Targeting und zur Anzeige von politischer Online-Werbung auf der Grundlage von Artikel 16 AEUV erlassen werden sollten.
Der djb unterstützte in seiner Stellungnahme 23-23[9] ausdrücklich die Position des EP.
Anhand zahlreicher Studien[10] wird sehr deutlich, dass sich gezielte Ansprache durch die machtvollen Aktivitäten der großen Social-Media-Anbieter und Betreiber von Online-Plattformen als Herausgeber politischer (Online)-Werbung negativ auf die grundrechtlich garantierte Gleichstellung der Geschlechter und Förderung von Frauen auswirkt.
Dabei zeigen sich verschiedene Problemkreise des Ausspielens politischer (Online)-Werbung in folgenden Beispielen:
- Überproportionales Ausspielen von (Online)-Werbung für Akteure mit antifeministischen Positionen
- Botschaften von Akteuren und Parteien mit extremistischen, meist rechtsextremistischen Inhalten führen zu einer vergleichsweise hohen Aufmerksamkeit in den sozialen Netzwerken und zur Gewinnmaximierung bei den Herausgebern und werden im Vergleich zu Inhalten anderer Akteure und Parteien überproportional ausgespielt.
- Verstärkung von (Online)-Werbung mit antifeministischen Inhalten
- Der Skandal beim Abtreibungsreferendum in Irland im Frühjahr 2018 zeigt, wie antifeministische Inhalte von Facebook verstärkt wurden.
- Gezielte Verdrängung von Nutzerinnen (auch als Akteurinnen) aus Wahlprozessen
- In der Trump-Kampagne m US-Präsidentschaftswahlkampf 2016 wurde auf die Demobilisierung von Wählergruppen, die wie Frauen oder Schwarze zu Hillary Clinton tendierten, mittels digitaler Desinformation und gezielter Adressierung gesetzt.
- Fragmentierung der Gesellschaft
- Je mehr Daten vorhanden sind und je mehr eine Gesellschaft und ihre Teile vermessen sind, desto eher lassen sich staatliche und private Instrumente dazu einsetzen, informationelle Machtungleichgewichte zu verfestigen und diese für eigene Zwecke einzusetzen. Mit diesem Einsatz geht die Gefahr der Reproduktion geschlechtsbezogener Diskriminierung einher. Schon der subjektive Eindruck einer digitalen Überwachung kann dazu führen, dass Nutzer ihr Verhalten unbewusst anpassen, sich nicht mehr ausreichend digital informieren und an demokratischen Prozessen nicht mehr teilhaben. Ferner kann es dazu führen, dass der Zugang und die Nutzung zu privaten und öffentlichen Angeboten prohibitiv ausgestaltet sind, weil bestimmte Nutzer und ihre Anliegen nicht erwünscht sind. Personalisierung kann also genutzt werden, um Ausgrenzung und Diskriminierung voranzutreiben und Folgen für die Geschlechtergerechtigkeit haben.
- Bildung sogenannter Filterblasen
- Verhaltensprofilbildung kann zur Bildung sogenannter Filterblasen in den sozialen Medien führen und unmittelbar die Entstehung frauenfeindlicher und extremistischer Echokammern fördern.
Es besteht dringender Handlungsbedarf, ein ausdrückliches Verbot der Verarbeitung personenbezogener Daten in Form des Sammelns, Zusammenführens und Auswertens von Informationen zu Nutzer*innen und zum Nutzungsverhalten durch Social-Media-Anbieter sowie Betreiber von Online-Plattformen insbesondere zum Zwecke der kommerziellen und/oder politischen werblichen Ansprache der Nutzer*innen in der DSGVO zu regeln.
II. Forderung der Verpflichtung von Verantwortlichen einer automatisierten Verarbeitung nach Art. 22 DSGVO sowohl zum Zeitpunkt der Festlegung der Mittel als auch zum Zeitpunkt der eigentlichen Verarbeitung geeignete technische und organisatorische Maßnahme zu treffen, die darauf ausgerichtet sind, dass Datensätze, auf deren Grundlage Entscheidungen getroffen werden und die Einzelpersonen diskriminieren oder schädigen können, ausreichend repräsentativ insbesondere auch hinsichtlich des Geschlechts sind
Die Art. 25, 32 DSGVO sehen vor, dass zum Schutz betroffener Personen vom Verantwortlichen geeignete technische und organisatorische Maßnahmen bei der Datenverarbeitung getroffen werden müssen. Dazu gehört, betroffene Personen vor Schaden und Diskriminierung zu bewahren (Erw. 85). Bereits nach der Wertung von Art. 35 Abs. 3 lit a) DSGVO hat Profiling grundsätzlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge, sodass eine Datenschutzfolgeabschätzung durchzuführen ist. Die Durchführung einer Datenschutzfolgenabschätzung ist jedoch bei weitem keine ausreichende Maßnahme, um den Gefahren von Diskriminierung durch algorithmenbasierte Entscheidungssysteme zu begegnen.
Die Alltagspraxis zeigt, dass die Verwendung algorithmenbasierter Entscheidungssysteme in vielen Bereichen der Wirtschaft häufig zur Diskriminierung der betroffenen weiblichen Personen führt.[11] So werden mittels automatisierter Datenverarbeitung geschlechtsspezifische Vorurteile verstärkt oder Entscheidungen trotz notwendiger Geschlechtsdifferenzierung geschlechtsblind getroffen.
Eine Ursache solcher diskriminierender Entscheidungen ist regelmäßig die Unterrepräsentanz geschlechtsspezifischer Daten in den Ausgangsdaten (Digital Gender Gap).[12] Die Auswirkungen geschlechtsspezifischer Datenlücken werden völlig unterschätzt. Es besteht ein dringender Bedarf an nach Geschlechtern aufgeschlüsselten Daten, um personenbezogene Daten tatsächlich kontextbezogen diskriminierungsfrei zu verarbeiten. Die Studie „The impact of the gender data gap on consumer protection“ vom April 2023[13], die vom EP beauftragt wurde, stellt klar heraus, dass Verbraucher*innen als solche zwar durch EU-Rechtsvorschriften geschützt sind. Diese Vorschriften flössen aber nicht in die Prozesse der Produkt- und Dienstleistungsgestaltung ein, die in erster Linie auf die Bedürfnisse von Männern ausgerichtet und von männlichen Ingenieuren, Designern und Praktikern konzipiert und gestaltet würden. Frauen seien in der Regel von den Prozessen der Gestaltung und Bereitstellung ausgeschlossen. Das Fehlen geschlechtsspezifisch aufgeschlüsselter Daten setzt diesen Teufelskreis fort und führt zu algorithmenbasierten Produkten und Dienstleistungen, die den Bedürfnissen von Frauen nicht gerecht werden. Damit werden nicht nur Fragen der Zugänglichkeit, Eignung und Nutzbarkeit, sondern auch der Gesundheit und Sicherheit aufgeworfen.
Diese Problematik potenziert sich im Bereich der künstlichen Intelligenz und der Entwicklung entsprechender Systeme, die die Felder der Beschäftigung, der Bildung, der Finanzen, der Wirtschaft und des Gesundheitswesens verändern werden.
Es besteht dringender Bedarf in der DSGVO - einem der wichtigsten Bausteine der EU-Datenstrategie - Verantwortliche schon bei der Auswahl von Ausgangsdaten für ein System automatisierter Entscheidungsfindung ausdrücklich zu verpflichten, Maßnahmen zu treffen, die solche kontextbasierten geschlechtsspezifischen Datenlücken schließen. Verstöße sollten nach Art. 83 Abs. 4 lit a) DSGVO bußgeldbewährt sein.
III. Forderung zur Aufnahme des Grundprinzips „Equality by Design“ (Technikgestaltung) in Art. 25 DSGVO, damit alle datenverarbeitenden Systeme Geschlechter-Bias entgegenwirken
Das Regelungsregime für Datenverarbeitungen sollte auch in Artikel 25 DSGVO eine „Equality by Design“-Bestimmung erhalten. Der Digital Gender Gap[14] wirkt sich zum Nachteil von Frauen und marginalisierten Personen beim Zugang zu digitalen Angeboten aus und der Gender Data Gap[15] beeinflusst digitale Angebote auch inhaltlich zuungunsten von Frauen auch schon in den Bereichen, die nicht von automatisierten Verarbeitungssystemen im Sinne von Art.22 DSGVO betroffen sind. Es sollten z.B. Sprachassistenten als mangelbehaftet gelten, wenn sie auf weibliche Stimmen schlechter reagieren als auf männliche Stimmen. Oder ein Sprachassistent muss zwingend deutlich anzeigen, wann Gespräche aufgezeichnet werden, um zu verhindern, dass (gewalttätige) Partner ihre Partnerin überwachen können.
Eine Analyse der Informations- und Technologieindustrie (IKT), die im Rahmen des 3. Gleichstellungsberichts der deutschen Bundesregierung "Digitalisierung geschlechtergerecht gestalten"[16] erfolgt ist, zeigt, dass es in der Branche an Genderkompetenz und sozialen Technikfolgenabschätzungen bei der Entwicklung digitaler Produkte und Dienstleistungen insgesamt fehlt. Es fehle bereits an der Ausgewogenheit der Geschlechter in den Entscheidungsprozessen innerhalb dieser Branche. So werden geschlechtsspezifische Vorurteile bei Online-Marketingaktivitäten verstärkt und Leistungen z.B. im Gesundheitsbereich geschlechtsblind angeboten trotz zwingend notwendiger Geschlechtsdifferenzierung. Das ist keine Technikneutralität. Laut der vom Europäischen Parlament beauftragten Studie „The impact of the gender data gap on consumer protection“[17] vom April 2023 beträgt der Frauenanteil bei den Absolvent*innen von IKT-Studiengängen lediglich 20 %, der Frauenanteil bei unternehmerisch Tätigen im IKT-Bereich einschließlich der Wissenschafts- und Ingenieurberufe liegt bei nur 24 %.
Eine „Equality by Design“-Klausel muss daher darauf verpflichten, dass Geschlechtergerechtigkeit schon in den Gestaltungsprozess bei Datenverarbeitungen und nicht nur bei der Verwendung von algorithmischen Entscheidungssystemen i.S.d. Art. 22 DSGVO mit eingebunden wird. Damit wird sichergestellt, dass alle datenverarbeitenden Systeme das Risiko von Geschlechter-Bias kennen müssen und bereits im Gestaltungsprozess auf Diskriminierungspotential geprüft werden. Es sind Maßnahmen zu dokumentieren, mit denen diese Risiken minimiert werden. Wie bereits Verstöße gegen die Prinzipien "Privacy by Design" und "Privacy by Default" sollten auch Verstöße gegen „Equality by Design“ gemäß Art. 83 Abs. 4 lit a) DSGVO bußgeldbewährt sein.
Ursula Matthiessen-Kreuder
Präsidentin
Anke Stelkens
Vorsitzende der Kommission Digitales
[1]https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14054-Bericht-uber-die-Datenschutz-Grundverordnung_de, zuletzt aufgerufen am 06.02.2024
[2] Weltmädchenbericht 2020, Studie Plan International "Free to be online? Girls# and youg women#s experiences of online harassment" auf https://www.plan.de/freedom-online.html, zuletzt aufgerufen am 06.02.2024.
[3] Zeit-online 8.11.2021 "Facebook-Whistleblowerin fordert strengere Regulierung" auf https://www.zeit.de/gesellschaft/2021-11/frances-haugen-facebook-whistleblowerin-eu-parlament-bruessel?utm_referrer=https%3A%2F%2Fduckduckgo.com%2F, zuletzt aufgerufen am 06.02.2024; siehe auch auf Netzpolitik.org https://netzpolitik.org/2021/facebook-leaks-whistleblowerin-erhebt-schwere-vorwuerfe-gegen-facebook/, zuletzt aufgerufen am 06.02.2024, oder beim SWR https://www.swr.de/swr2/leben-und-gesellschaft/social-media-instagram-gefahr-fuer-mentale-gesundheit-junger-maedchen-100.html, zuletzt aufgerufen am 06.02.2024.
[4] Selbstdarstellung von META auf der Website von Facebook https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences, zuletzt aufgerufen am 06.02.2024.
[5] Siehe auf der Website des EDPS zu "Online manipulation and personal data" https://edps.europa.eu/data-protection/our-work/publications/opinions/online-manipulation-and-personal-data_de, zuletzt aufgerufen am 06.02.2024.
[6] "Dritter Gleichstellungsbericht: Digitalisierung geschlechtergerecht" des Bundesministeriums für Familie, Senioren, Frauen und Jugend, 2021, BT-Drs. 19/30750, online, https://www.dritter-gleichstellungsbericht.de, zuletzt aufgerufen am 06.02.2024.
[7]https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=EP:P9_TA(2023)0027, zuletzt aufgerufen am 06.02.2024.
[8]https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=EP:P9_TA(2023)0027, zuletzt aufgerufen am 06.02.2024.
[9] djb-Stellungnahme 23-23 auf https://www.djb.de/presse/stellungnahmen/detail/st23-23, zuletzt aufgerufen am 06.02.2024.
[10] u.a. SZ auf https://www.sueddeutsche.de/politik/bundestagswahl-facebook-afd-1.5418506, zuletzt aufgerufen am 06.02.2024; Dritter Gleichstellungsbericht https://www.dritter-gleichstellungsbericht.de, zuletzt aufgerufen am 06.02.2024; Leipziger Autoritarismus Studie 2020; Julia Ebner, „Radikalisierungsmaschinen“ mit dem Untertitel „Wie Extremisten die neuen Technologien nutzen und uns manipulieren“, Berlin (2019); siehe dazu auch die djb-Stellungnahme 21-18 "Das Netz als antifeministische Radikalisierungsmaschine" vom 9.9.2021 auf https://www.djb.de/presse/stellungnahmen/detail/st21-18, zuletzt aufgerufen am 06.02.2024.
[11] Viele weitere Beispiele auf der Seite der NGO Algorithm Watch algorithmwatch.org/de/stories/.
[12] fehlende oder unterrepräsentierte Datenerhebungen für ein bestimmtes Geschlecht bei Datenerhebungsverfahren, siehe auf https://de.wikipedia.org/wiki/Gender-Data-Gap, zuletzt aufgerufen am 06.02.2024; grundlegend Criado-Perez "Invisible Women" London 2019.
[13]www.europarl.europa.eu/thinktank/en/document/IPOL_STU(2023)744205, zuletzt aufgerufen am 06.02.2024.
[14] Der Digital Gender Gap (= Messung des Digitalisierungsgrades einer Person anhand von vier Faktoren: Zugang zu Digitalgeräten, Nutzungsdauer, Anwendungskompetenz, Aufgeschlossenheit ggü. Digitalisierung) stellt geschlechtsbezogene Unterschiede beim Digitalisierungsgrad von Frauen und Männern fest. Näheres auf der Website der Initiative D21 e.V. https://initiatived21.de, zuletzt aufgerufen am 06.02.2024, insbesondere die vom Verein herausgegebene Publikation „Digital Gender Gap“ auf https://initiatived21.de/publikationen/digital-gender-gap, zuletzt aufgerufen am 06.02.2024.
[15] siehe Fn.11.
[16]www.dritter-gleichstellungsbericht.de, zuletzt aufgerufen am 06.02.2024.
[17]www.europarl.europa.eu/thinktank/en/document/IPOL_STU(2023)744205, zuletzt aufgerufen am 06.02.2024