Der Deutsche Juristinnenbund e.V. (djb) nimmt mit großer Besorgnis von den Vorschlägen der EU-Kommission im Rahmen des Digital Omnibus Pakets Kenntnis.
Der djb fordert:
- Die Vereinfachung der Digitalgesetzgebung darf nicht mit einem Abbau von mühsam errungenen Rechten im digitalen Raum einhergehen.
- Das Datenschutzrecht dient gerade auch dem Schutz von Frauen und anderen marginalisierten Gruppen und ist besonders mit Blick auf diese nachzuschärfen.
- Wir brauchen eine Herstellerhaftung für die Unternehmen, deren Geschäft im Kern auf der Verarbeitung von Daten basiert und die die tatsächliche Macht über die Datenverarbeitung haben.
- Geschäftsmodelle, die auf KI basieren, müssen die Gefahren von Diskriminierung adressieren. Das Diskriminierungspotential muss reduziert, die Rahmenbedingungen vertrauensvoller KI erforscht und festgelegt werden.
- Nudification Apps müssen verboten werden.
I. Der digitale Omnibus
Das Paket ist der erste Anstoß einer Diskussion, mit dem die Vereinfachung der Digitalgesetzgebung angestrebt wird.[1] Es besteht aus dem Entwurf des Digital Omnibus Act[2] (im Folgenden: DOA-E) und des Digital Omnibus on AI Act (im Folgenden DOAIA-E)[3].
Während dieses Ziel grundsätzlich zu begrüßen ist, sieht der djb in den bisherigen Vorschlägen einen massiven Rückschritt für Grundrechte im digitalen Raum. Der von 127 europäischen zivilgesellschaftlichen Organisationen unterzeichnete offene Brief „The EU must upheld hard won protections for digital human rights“[4] erläutert, wie die Vorschläge der Kommission Schutzmechanismen im digitalen Raum abbauen. Der djb schließt sich dem offenen Brief ausdrücklich an und nimmt satzungsgemäß zu den gleichstellungspolitischen Aspekten Stellung. Sowohl die vorgeschlagenen Änderungen im Datenschutzrecht als auch in der KI-Verordnung bergen erhebliche Gefahren für Frauen und marginalisierte Geschlechter. Zudem verpasst das Digital Omnibus Paket die Chance, den Gefahren der Digitalisierung wirksam zu begegnen.
II. Datenschutzrecht, Anpassungen der DSGVO
Die Grundrechte auf Privatheit (Art. 7 EU-GRCh) und Datenschutz (Art. 8 EU-GRCh) haben eine besondere Bedeutung für Frauen und andere marginalisierte Gruppen. Sie sind häufiger allein aufgrund ihrer Zugehörigkeit zu einer bestimmten Gruppe Diskriminierung ausgesetzt. Es muss ihnen daher möglich sein, über das Bekanntwerden bestimmter Faktoren selbst zu bestimmen. Dies betrifft etwa Merkmale wie Geschlecht, Herkunft, Wohnort, sexuelle Orientierung, Religion, etc. Diese Merkmale dürfen auf bestimmte Entscheidungen keinen Einfluss haben dürfen (z. B. Wohnungsvergabe, Arbeitsplatzzusage, Kreditbedingungen). Das Bekanntwerden von Identitäten kann auch dazu führen, dass diese Personen Hasskriminalität erfahren.
Marginalisierte Gruppen sind zudem häufiger staatlicher Überwachungund Repression ausgesetzt, z.B. trans Personen, ethnische Minderheit, politische Aktivist*innen. Datenspuren können missbraucht werden, um Menschen zu identifizieren und verfolgen. Besonders Menschen, die stärker von Sozialleistungen abhängig sind, müssen oft mehr Daten preisgeben. Der Datenschutz stellt sicher, dass diese Daten nicht zweckentfremdet werden, um die Betroffenen zu kontrollieren und zu bewerten. Gerade vor dem Hintergrund aktueller politischer und gesellschaftlicher Entwicklungen, in denen verschiedene Gruppen gegeneinander ausgespielt werden, gibt es keine Garantien, dass bestimmte politische Kräfte in Entscheidungspositionen personenbezogene Daten nicht zur gezielten Repression nutzen.
Das Grundrecht auf Schutz personenbezogener Daten und Privatheit ist entscheidend für die Gleichheit und Sicherheit marginalisierter Gruppen.
1. Auch pseudonyme Daten sind personenbezogen
Das Datenschutzrecht schützt natürliche Personen bei der Verarbeitung ihrer personenbezogenen Daten. Gemäß Art. 4 Nr. 1 Satz 1 DSGVO gelten alle Informationen als „personenbezogen“, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Nach dem vom EuGH[5] entwickelten Grundsatz der relativierten Personenbeziehbarkeit bemisst sich der Personenbezug maßgeblich danach, welche realistischen Mittel zur Re-Identifizierung einem Verantwortlichen zur Verfügung stehen.
Mit der vorgeschlagenen Änderung der Definition personenbezogenerDaten[6] will die Kommission diese Rechtsprechung abbilden.[7] Nach dem neuen Vorschlag soll die Möglichkeit, dass Dritte problemlos eine Re-Identifizierung vornehmen können (etwa durch Kombination mit zusätzlichen Datensätzen) für die Frage, ob Daten personenbezogen sind, jedoch unbeachtlich bleiben. Damit wird eine einschränkende Ausnahme normiert, die die Verantwortlichkeit des ursprünglichen Datenübermittlers stark begrenzt. Diese gesetzliche Klarstellung ist nicht im Einklang mit dem Prinzip der relativierten Personenbeziehbarkeit des EuGH. Der EuGH verlangt eine gesamtbetrachtende Risikoanalyse und gerade keine rein formale Trennung der Akteure. Es besteht die Gefahr, dass pseudonymisierte Daten trotz leichter Re-Identifizierbarkeit im Ergebnis als nicht personenbezogen qualifiziert werden. Damit ist jegliche Verarbeitung oder Weitergabe dieser Daten ohne Rechtsgrundlage oder sogar Kenntnis der betroffenen Person möglich. Das ist besonders problematisch, wenn diese Daten in großem Umfang und sehr gut strukturiert weitergegeben werden.
Die vorgeschlagene Veränderung der Definition personenbezogener Daten hätte zur Folge, dass der Anwendungsbereich der DSGVO verkleinert und der Schutz der informationellen Selbstbestimmung erheblich geschwächt werden würde. Die Informationsasymmetrie zwischen Verantwortlichen und Betroffenen ist im digitalen Bereich ohnehin schon erheblich. Zusätzlich vorgeschlagene Beschränkungen der Informationspflichten und Auskunftsrechte[8] führen zu noch weniger Transparenz.
2. Gefahren von Profiling erkennen und begegnen
Der djb kritisiert, dass das Aufweichen des Personenbezugs ein ungeahntes Ausmaß an Profiling ermöglicht. Profiling ist das Anlegen von Nutzerprofilen und inzwischen zu einem riesigen Geschäftsmodell gewachsen. Diese Profile bestehen zum Beispiel aus Standortdaten, Kommunikationsverhalten oder Browser-Historie. Bei der Auswertung der gewonnenen und zusammengeführten Daten werden Personen bestimmten Gruppen zugeordnet, die sich durch spezielle Interessen, Präferenzen, Entscheidungsmuster etc. auszeichnen sollen. Angehörigen dieser Gruppen werden dann benutzerspezifische Inhalte und Werbung offeriert. Bereits diese externe Persönlichkeitskonstruktion ist rechtlich problematisch und berührt den Schutzbereich der Grundrechte auf Privatheit und Datenschutz.
Der djb kritisiert, dass Profiling gerade vulnerable Gruppen oder Personen in vulnerablen Situationen besonders hart trifft.
Beispiel: Das Google Maps-Profil einer 30-jährigen Frau speichert innerhalb weniger Tage die Wege zu Gynäkologin, Beratungsstelle und Klinik. Dies erlaubt den Schluss, dass die Frau eine Abtreibung, eine Fehlgeburt oder einen unerfüllten Kinderwunsch hat. In Verbindung mit einem passenden Suchmaschineneintrag (etwa „Abtreibung legal Deutschland“ oder „Fehlgeburt 9. Woche“) wissen alle Betreiber von Apps oder Websites auf dem genutzten Endgerät von einem höchstpersönlichen Lebensereignis, das oft nur in engsten Beziehungen geteilt wird.
Je nach Alter, Geschlecht, Bildungsstand, Einkommen (etc.) werden unterschiedliche Inhalte ausgespielt, die das Interesse der betroffenen Gruppe besonders gut bedienen soll. Der Alltag von Mädchen und Frauen in den sozialen Netzwerken ist geprägt von Beschimpfungen, Drohungen, sexueller Belästigung und der Angst vor Demütigungen. Soziale Netzwerke tragen bei Mädchen dazu bei, Probleme mit dem eigenen Körperbild zu entwickeln und schaden ihrer körperlichen und geistigen Gesundheit. Mit perfekten Bildern wird Druck ausgeübt, die zu Depressionen, Essstörungen und zum Teil auch zu lebensbedrohlichen Zuständen führen können. [9]
Neben dem Ausspielen von Inhalten ist auch das Ausspielen von Werbung ein großes Problem. Microtargeting erlaubt es Unternehmen, ihre Werbung an passende Profile auszuspielen. Die ausspielende Plattform vergibt den Werbeplatz dabei oft in Echtzeit an den Meistbietenden. Profiling verstärkt dabei nicht nur Stereotype und Rollenzuschreibungen. Dies ist besonders problematisch, wenn Gesundheitsdaten oder andere sensible Daten verarbeitet werden. Gefährlich wird es, wenn der Meistbietende nicht nur Produkte verkaufen, sondern in anderer Weise Personen gezielt beeinflussen will.[10] Im oben genannten Beispiel könnte der Frau etwa Werbung von aufdringlichen Abtreibungsgegnern ausgespielt werden.
Diese gezielte Einflussnahme auf Individuen durch Staaten wäre in einer rechtsstaatlichen Demokratie undenkbar. Während Überwachungsmaßnahmen durch einen Staat nur in besonderen Ausnahmesituationen erlaubt sind und regelmäßig nur durch ein Gericht angeordnet werden können, gibt es gleichzeitig keine Möglichkeit, sich vor dem Anlegen von Nutzerprofilen und der Einflussnahme von Big Tech Firmen zu schützen.
Profiling ermöglicht darüber hinaus spezifische Preisdiskriminierung, weil die Profile erkennen lassen, welche Gruppen bereit sind, besonders viel Geld für ein Produkt auszugeben.[11]
Schließlich ermöglicht Profiling sozialen Netzwerken Nutzer*innen möglichst lange auf der Plattform zu halten, indem besonders interessante Inhalte ausgespielt werden und Inhalte kurzfristig an neue Interessen angepasst werden können. Das macht Profiling zu einer Hauptursache für die zunehmende Radikalisierung rechter und antifeministischer Gruppen im Netz. Der ohnehin schon problematische Eingriff in das Persönlichkeitsrecht ist noch weniger hinnehmbar, wenn antifeministische Inhalte von den Empfehlungssystemen an anfällige Zielgruppen ausgespielt werden. Wenn antifeministische und diskriminierende Äußerungen als profilbildende Daten genutzt werden, fördert dies unmittelbar die Entstehung von frauenfeindlichen extremistischen Echokammern. Dadurch werden User mit immer extremeren Inhalten konfrontiert, sodass diese ihnen sukzessive als normal erscheinen.[12]
Profiling ist in der DSGVO derzeit nur rudimentär in Art. 22 geregelt und beschränkt sich auf voll-automatisierte Entscheidungsabläufe. Schon jetzt können Individuen sich kaum vor Profiling schützen, geschweige denn Einfluss auf ihr extern angelegtes Persönlichkeitsprofil nehmen. Apps und Websites verlangen umfangreiche Einwilligungen zur Nutzung und erschweren die Ablehnung durch sogenannte Dark Patterns.[13] Die Einwilligung zum Profiling wird oft mit dem Versprechen eines besseren Nutzungserlebnisses eingeholt.
Mit dem aufgeweichten Verständnis vom Personenbezug wird Profiling in einem Ausmaß legitimiert, dass erheblich in die Grundrechte der Betroffenen eingreift. Es ist dringend geboten, das Profiling zu verbieten. Jedenfalls aber sollte der Gesetzgeber das Digital Omnibus Paket nutzen, um ausdifferenzierte und grundrechtsschonende Regelungen für persönlichkeitsbeeinträchtigende Entscheidungssysteme aufstellen, um das Datenschutzrecht im digitalen Raum wirksam zu gewährleisten.
III. KI-Recht, Anpassungen der KI-Verordnung
Die KI-VO hat es sich zum Ziel gemacht, vertrauenswürdige KI zu fördern und vor schädlichen Auswirkungen von KI-Systemen zu schützen, indem unter anderem ein hohes Schutzniveau für Grundrechte gewährleistet werden soll.
1. Hochrisiko-KI-Systeme als Diskriminierungsinstrument gegen Frauen
Deshalb hat der Gesetzgeber der EU – zu Recht – ein Hauptaugenmerk auf die Anforderungen an KI-Systeme gelegt, von denen nach Einschätzung der EU ein hohes Risiko für Grundrechte ausgeht (sog. Hochrisiko-KI-Systeme). Hochrisiko-KI-Systeme müssen dazu nicht nur den zwingenden Anforderungen der Art. 8 ff. KI‑VO entsprechen, sondern etwa auch ein Konformitätsbewertungsverfahren durchlaufen und mit einem CE-Kennzeichen versehen werden, bevor sie auf den Markt gebracht werden dürfen. Anbieter bestimmter Hochrisiko-KI-Systeme sind zudem verpflichtet, das System in der EU-Datenbank zu registrieren. Diese Registrierungspflicht für hochrisikobehaftete KI-Systeme (Art. 1 Nr. 6, 14 und 32 DOAIA-E) soll nunmehr abgeschwächt werden. KI-Systeme, die zwar in Hochrisiko-KI-Bereichen eingesetzt werden, selbst aber keine risikoreiche Funktion ausführen (vgl. Art. 6 Abs. 3 KI-VO), sollen von der Pflicht ausgenommen werden, in der öffentlichen EU-Datenbank registriert werden zu müssen.
Der djb betont, dass diese Einschränkung besonders für Frauen und andere marginalisierte Gruppen problematisch ist, da sie von Hochrisiko-KI-Systemen nachweislich überproportional häufig diskriminiert werden. Eine unmittelbare Folge der Regelung ist, dass KI-Systeme, die etwa Bewerbungen für potenzielle Arbeitgeber*innen automatisiert kategorisieren oder anhand bestimmter Kriterien die Kreditwürdigkeit prognostizieren, keiner Registrierungspflicht mehr unterfallen würden. So können zum Beispiel Frauen dadurch benachteiligt werden, dass eine KI zuvor mit historischen Bewerbungsdaten trainiert worden ist, in deren Datensätzen männliche Daten überrepräsentiert sind und die Software (ohne eine ausdrückliche Anweisung) dadurch lernt, dass “männliche” Lebensläufe als passender zu bewerten sind. Dies kann auch darauf zurückgeführt werden, dass indirekte Hinweis wie Karrierepausen durch Teilzeit (und Care-Arbeit) als negatives Signal gewertet werden, obwohl sie nichts über die tatsächliche Qualifikation aussagen. Ausgehend davon könnten durch die Neuregelung KI-Systeme von der Registrierungspflicht ausgeschlossen werden, die für Arbeitgeber:innen die eingereichten Bewerbungen nach Relevanz anhand der Stellenanzeige vorsortieren.
Diese Diskriminierungspotenziale werden durch die geplante Abschwächung dadurch verstärkt, dass es für Betroffene nahezu unmöglich sein wird, ohne eine umfassende verpflichtende Registrierung den Einsatz einer solchen KI zu kontrollieren. So bleiben den Betroffenen Rechte verwehrt, die sich darauf erstrecken, die Herkunft und Verbreitung solcher schädlichen Systeme nachvollziehen zu können (z.B. durch Art. 86 KI-VO) und rechtliche Schutzmaßnahmen einzuleiten.
Diese Bedenken wiegen umso schwerer, als die Einordnung, ob der Ausnahmetatbestand des Art. 6 Abs. 3 KI-VO und damit die Befreiung von der Registrierungspflicht greift, maßgeblich auf einer Selbsteinschätzung des Anbieters beruht. Die Ausnahme birgt daher nicht nur erhebliche Risiken einer fehlerhaften Einstufung, sondern entzieht diese Bewertung zugleich weitgehend der externen Kontrolle und erschwert ihre Überprüfbarkeit für Betroffene – etwa durch Art. 86 KI-VO – erheblich.
2. Verzögerung des Inkrafttretens
Enorm verstärkt werden die zuvor genannten Diskriminierungsrisiken auch dadurch, dass die Kommission plant, die Pflichten für Hochrisiko-KI-Systeme verzögert in Kraft treten zu lassen (Art. 1 Nr. 31 DOAIA-E). Konkret sollen die eingangs genannten Regelungen für KI-Systeme aus im Anhang III KI-VO (u.a. Systeme, die etwa in Beschäftigungsverhältnissen zum Einsatz kommen) ab Dezember 2027 und für KI-Systeme gemäß Anhang I KI-VO (u.a. hochriskante KI-Systeme etwa im Medizin-, Justizbereich), sogar erst ab Dezember 2028 gelten.[14]
Die geplante Verschiebung ermöglicht es den diese KI einsetzenden Unternehmen weiterhin, dass sie ungehindert personenbezogene Daten sammeln und KI-Systeme trainieren können. Dies ist besonders problematisch, da KI-Systeme, die einmal trainiert sind, nicht in der Lage sein werden, diskriminierende Muster aus den Trainingsdaten wieder zu „vergessen“. [15]
Der djb fordert die Kommission daher auf, die selbst verschuldete Verzögerung (vgl. ErwG 22 DOAIA-E) vor dem Hintergrund effektiven Rechtsschutzes (Art. 19 Abs. 4 GG) für vulnerable Gruppen nicht zu deren Lasten ausfallen zu lassen.
3. Einführung einer Ermächtigungsgrundlage zur Verarbeitung sensibler Daten zur Bias-Erkennung
Weiter beabsichtigt die Kommission eine eigenständige Rechtsgrundlage zur Verarbeitung sensibler Daten zur Bias-Erkennung einzuführen (Art. 1 Nr. 5, ErwG 6 DOAIA-E). Danach soll die Verarbeitung sensibler personenbezogener Daten im Zusammenhang mit sämtlichen KI-Systemen und -Modellen erlaubt sein, um Bias bzw. Diskriminierungsrisiken zu ermitteln. Der djb erkennt an, dass die Kommission Diskriminierungsrisiken vorbeugen will und dabei auch davon ausgeht, dass von Nicht-Hochrisiko-KI-Systemen gleichermaßen solche Risiken ausgehen. In diesem Bereich besteht ein erheblicher Regulierungsbedarf. Deren Erkennung und Korrektur ist wichtig für die Sicherstellung „vertrauenswürdiger“[16] KI.
Gleichzeitig fordert der djb Klarheit bezüglich der Norm, da ansonsten Missbrauchs- und Diskriminierungsrisiken verstärkt werden können: Der djb stellt die Wirksamkeit der Regelung infrage, weil nicht deutlich wird, was unter Begriffen wie „erforderlich und verhältnismäßig“ zu verstehen ist. Dies gilt insbesondere durch den Verweis auf die “Speicherfrist” (Art. 4a Abs. 1 lit. e DOAIA-E) und die fehlende Klarstellung, wann eine Verzerrung korrigiert ist. Wenn dies unklar bleibt, fällt der Schutz weg.
Der djb fordert daher die Kommission auf, klarzustellen, welche Maßnahmen ausreichen, um Bias erkennen und korrigieren zu können. Sofern die Kommission diese handwerklichen Ungenauigkeiten offenlässt, besteht die Gefahr, die Norm erheblich zu missbrauchen, indem flächendeckend die Dauerverarbeitung sensibler personenbezogener Daten ermöglicht wird.
Der djb weist zudem darauf hin, dass mit dieser Maßnahme nicht allen Diskriminierungsrisiken vorgebeugt werden kann. Zum einen bietet die Regelung keine hinreichenden Prüf- und Abhilfemechanismen für Betroffene. Ohne fehlende Kontrolle bietet die Norm ein Einfallstor, sensible Daten unter dem Vorwand der Untersuchung von Verzerrungen zu verarbeiten. Zum anderen bedarf es für dieses gesellschaftliche Problem nicht nur einer Erlaubnis, sondern vielmehr (auch für Nicht-Hochrisiko-KI-Systeme) einer Pflicht, solchen Verzerrungen, etwa durch geprägte “männlich-geprägten Datensätze” entgegenzutreten.
IV. Fehlende Aspekte
Aus gleichstellungspolitischer Sicht sind enorme Chancen zur geschlechtergerechten Technikfolgenabschätzung insb. zu geschlechterbasierter digitaler Gewalt verpasst worden.
1. Verbot von Nudification Apps
Aktuell zeigt das GROK-Modell von X.AI was passiert, wenn KI-gestützte „Nudification Apps“ nicht verboten werden. In den ersten Wochen des Jahres 2026 wurden über 1,5 Millionen sexualisierte Deepfakes generiert, von denen 99 % Frauen und Mädchen betreffen. Durch Nudification Apps wird eine systematische Form digitaler sexualisierter Gewalt im „Massenmaßstab“ ermöglicht.[17] Für betroffene Personen erfolgt eine massive Verletzung ihrer Grundrechte, für die bislang kein explizites Verbot besteht.[18]
Der Verweis auf den Schutzrahmen des Digital Services Act (DSA) ist unzureichend, da ohne verbindliche, präventive Verbote im KI-Recht selbst der Schutz vor bildbasierter sexualisierter Gewalt lückenhaft bleibt. Da nur die KI-VO Regeln zu KI-Modellen und KI-Systemen enthält, setzt sie – anders als der DSA – im frühesten technischen Stadium an, in dem Deepfakes entstehen und effektiv bekämpft werden können.[19] Hinzu kommt die fehlende Verpflichtung zu geschlechtersensitiven Technikfolgenabschätzungen und datenqualitätssichernden Mechanismen, welche dazu führt, dass KI-Systeme wie das GROK-Modell weiterhin diskriminierende Vorurteile aus voreingenommenen Daten reproduzieren.
Der djb kritisiert, dass das digitale Omnibus-Paket es verpasst hast, im Zuge eines nicht nur konsequenten, sondern auch „vereinfachten“ Rechtschutz für Frauen ein explizites Verbot von KI-gestützten Nudification Apps aufzunehmen. Trotz des klaren Bezugs zur geschlechtsspezifischen Diskriminierung (Art. 21 EU-GRCh), findet sich das Merkmal des Geschlechts nicht in der Aufzählung der genannten schutzbedürftigen Personengruppen unter Art. 5 Abs. 1 lit. b KI-VO. Durch Aufnahme dieser Kategorie und der Aufnahme in den Katalog verbotener Systeme aus Annex I der KI-VO für verbotene KI-Systeme gem. Art. 5, würde ein solches Verbot erreicht werden.[20]
Derzeit wird die Aufnahme des Verbots in die KI-VO im Rahmen des Omnibus-Paketes geprüft.[21] Das explizite Verbot wäre nicht nur ein konsequenter Schritt zur Umsetzung der KI-VO als Schutzschild für Grundrechte, sondern auch ein klares Signal, dass geschlechterbasierte digitale Gewalt nicht länger toleriert wird.[22]
2. Vereinfachung nur durch Herstellerhaftung
Der djb kritisiert schließlich, dass das Digital Omnibus Paket ausschließlich an dem Ziel orientiert ist, die Wettbewerbsfähigkeit europäischer Unternehmen auszubauen. Im DOA-E heißt es zwar, die EU habe „eine Vorreiterrolle bei der digitalen Regulierung gespielt und den ‚Goldstandard‘ für den besten Schutz der Grundrechte, der Verbrauchersicherheit und der europäischen Werte gesetzt.“[23] Mit keinem Wort spricht er jedoch von der Beibehaltung dieses Standards oder gar dessen Ausbau. Selbst im einleitenden Teil „Grundrechte“, in dem auf das Recht auf Privatsphäre und Schutz personenbezogener Daten Bezug genommen wird, heißt es: „so sind diese Bestimmungen so eingerichtet, dass ein Höchstmaß an Schutz gewahrt bleibt, Einzelpersonen Unterstützung zur wirksamen Ausübung ihrer Rechte erhalten, ferner sollen sie die Kosten optimieren und Innovationsmöglichkeiten schaffen.“ Damit wird sogar der grundrechtliche Schutz mit Kostenoptimierung und Innovationsmöglichkeiten begründet.
Der DOAIA-E erwähnt zwar die „Gewährleistung eines hohen Maßes an Schutz der Gesundheit, der Sicherheit und der Grundrechte, einschließlich Demokratie und Rechtsstaatlichkeit“ in der Begründung des Vorschlags.[24] Doch auch hier drängt sich der Eindruck auf, dass die Grundrechte eher als Innovationshemmnis wahrgenommen zu werden, denn als Auftrag, diese Schutzgüter auszugestalten.
Zugleich verpasst die Kommission dieses angestrebte Ziel der europäischen Wirtschaftsförderung. Nur eine umfassende Herstellerhaftung würde echte Vereinfachung schaffen. Ohne Herstellerhaftung profitiert von diesem Gesetz vor allem die Big Tech Industrie, deren Geschäftsmodelle auf der massenhaften Verarbeitung personenbezogener Daten und risikoreichen KI-Anwendungen basieren. Diese sitzen jedoch in den USA oder in China. Nur wenn sie gezwungen sind, datenschutzkonforme Produkte auf den Markt zu bringen, werden europäische Unternehmen, Schulen, Vereine wirklich entlastet und zugleich die Grundrechte der Menschen in der Europäischen Union geschützt.
V. Fazit und Forderungen
Der djb stellt fest, dass das Digitale Omnibus Paket nicht nur die europäische Vorreiterrolle bei digitalen Grundrechten aufs Spiel setzt, sondern gezielt die Sicherheit und Selbstbestimmung von Frauen und anderen marginalisierten Gruppen gefährdet. Im Bereich der algorithmischen Systeme muss Regulierung zu Sicherung der Datenqualität und geschlechtergerechten Technikfolgenabschätzung gestärkt werden. Ohne Schutzmechanismen werden Zukunftsentscheidungen weiter aus historischen voreingenommenen Daten einer bisher geschlechterungerechten Gesellschaft abgeleitet. Statt Regulierung als „Bürokratie“ zu diffamieren, muss die EU ihre Schutzmechanismen gerade für besonders vulnerable Gruppen stärken. Daher sollte eine geschlechtergerechte Digitalpolitik verfolgt werden, die Frauen technologischen Entwicklungen nicht ausliefert, sondern sie aktiv in die Gestaltung einbezieht.
[1]digital-strategy.ec.europa.eu/de/library/digital-omnibus-regulation-proposal.
[2] Abrufbar https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:52025PC0837 (Digital Omnibus).
[3] Abrufbar https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52025PC0836 (Digital Omnibus on AI).
[4]edri.org/wp-content/uploads/2025/11/The-EU-must-uphold-hard-won-protections-for-digital-human-rights.pdf.
[5] EuGH C-413/23 P, Rn. 84 - SRB.
[6] Art. 3 Nr. 1 lit. a) DOA-E.
[7] Vgl. ErwG 27 DOA-E.
[8] Vorgeschlagen in Art. 3 Nr. 4 DOA-E.
[9] Vgl. djb Stellungnahme vom 08.02.2024 zur Evaluation der DSGVO S. 2, https://www.djb.de/fileadmin/user_upload/presse/stellungnahmen/st24-03_Evaluierung_der_DSGVO.pdf sowie die Berichterstattung über die Whistleblowerin Frances Haugen, z.B. https://netzpolitik.org/2021/frances-haugen-was-die-facebook-whistleblowerin-der-eu-raet/.
[10] Weltmädchenbericht 2020, Studie Plan International "Free to be online? Girls# and youg women#s experiences of online harassment" auf www.plan.de/freedom-online.html,
[11] Vgl. zur geschlechtsbezogenen Preisdiskriminierung: An der Heiden/Wersig im Auftrag der Antidiskriminierungsstelle des Bundes, Preisdifferenzierung nach Geschlecht in Deutschland, 2017.
[12] Vgl. djb Policy Paper „Das Netz als antifeministische Radikalisierungsmaschine” vom 09.09.2021 S. 7.
[13] Dark Patterns sind unethische Designs, die darauf ausgelegt sind, Benutzern zu Handlungen zu verleiten, die dessen Interessen entgegenlaufen. Beispiel: Das Annehmen von Tracking-Cookies wird durch eine grün unterlegte Schaltfläche ermöglicht, während die ausgegraute Möglichkeit der Ablehnung zu einem weiteren opt-out-Formular führt. Vgl. https://de.wikipedia.org/wiki/Dark_Pattern.
[14]https://netzpolitik.org/2025/faq-zum-digitalen-omnibus-was-plant-die-eu-kommission-bei-ki-und-datenschutz/
[15] Ho/ Hartanto/ Koh/ Majeed: Gender biases within Artificial Intelligence and ChatGPT: Evidence, Sources of Biases and Solutions (2025), S. 5 Annotation bias, DOI: https://doi.org/10.1016/j.chbah.2025.100145
[16] Siehe hierzu bereits https://www.djb.de/presse/stellungnahmen/detail/st24-24
[17] Präsentation HateAid beim Bundeskriminalamt, 2025 https://www.bka.de/SharedDocs/Downloads/DE/Publikationen/ForumKI/ForumKI2025/Pr%C3%A4sentation/10_Pr%C3%A4sentation_Benning.pdf?__blob=publicationFile&v=6
[18]https://www.politico.eu/article/european-parliament-lawmakers-call-for-full-ban-on-ai-nudifying-apps/ Oder auch https://artificialintelligenceact.substack.com/p/the-eu-ai-act-newsletter-94-grok
[19]Becker CR 06/2024 Generative KI und Deepfakes in der KI-VO
[20] Laura Caroli, ehemalige Mitverhandlungsführerin des KI-Gesetzes, hat untersucht, wie ein KI-Gesetz-Verbot von beispielsweise Groks Nacktheitstool funktionieren würde: https://substack.com/home/post/p-184758602P
[21] Michael McNamara MEP https://www.linkedin.com/feed/update/urn:li:activity:7417565538123489280/
[22] Djb Pressemitteilung 25-60: www.djb.de/presse/pressemitteilungen/detail/pm25-60
[23] Vgl. die Begründung des DOA-E zum Kontext des Vorschlags, S. 2.
[24] Vgl. die Begründung des DOAIA-E zum Kontext des Vorschlags, S. 1.