Stellungnahme: 25-02


zum Antrag der Fraktion der FDP „Entschlossen gegen digitale Gewalt: Deepfakes und Pornfakes stoppen!“ vom 3. September 2024 im Landtag Nordrhein-Westfalen, Drs. 18/10528

Stellungnahme vom

Der Deutsche Juristinnenbund e. V. (djb) begrüßt die Bemühungen zur Bekämpfung nicht-einvernehmlicher sexualisierter Deepfakes, die dem Antrag der FDP-Fraktion im Landtag des Landes Nordrhein-Westfalen zugrunde liegen. Mit dieser Stellungnahme hebt der djb die gleichstellungsorientierten und strafrechtlichen Aspekte hervor, die dringend geboten sind, um mit der rasant fortschreitenden Entwicklung sowie Ausbreitung bildbasierter sexualisierter Gewalt als Ausdruck digitaler geschlechtsspezifischer Gewalt Schritt halten zu können.

I. Bildbasierte sexualisierte Gewalt stellt eine massive Form digitaler geschlechtsspezifischer Gewalt dar

Nicht-einvernehmliche sexualisierte Deepfakes dürfen nicht isoliert betrachtet werden und müssen vielmehr im größeren Zusammenhang der übergeordneten bildbasierten sexualisierten Gewalt verstanden werden:[1]Die fortschreitende Digitalisierung eröffnet weitergehende Möglichkeiten der Kommunikation, auch mittels des Herstellens, Gebrauchens, Manipulierens und Zugänglichmachens[2] von Bildaufnahmen, die eine andere Person intim und/oder sexualbezogen wiedergeben. Wenn diese Verhaltensweisen durch die dargestellte Person selbst oder mit ihrer Einwilligung vorgenommen werden, stellen sie eine Ausübung des Rechts auf sexuelle Selbstbestimmung in Verbindung mit dem Recht am eigenen Bild bzw. dem allgemeinen Persönlichkeitsrecht dar. Fehlt es jedoch an der wirksamen Einwilligung der betroffenen Person, werden diese Rechte schwerwiegend verletzt. Es handelt sich dann um bildbasierte sexualisierte Gewalt.

Bildbasierte sexualisierte Gewalt stellt eine massive Form digitaler Gewalt dar. Ihre Erscheinungsformen sind vielfältig und reichen von digitalem Voyeurismus (dem Aufnehmen von Nackt-, intim- oder sexualbezogenen Bildinhalten etwa mittels Spy Cams), Upskirting und Downblousing (dem heimlichen Fotografieren unter den Rock oder in den Ausschnitt), Sextortion (die Drohung, Nacktfotos oder sexuell explizite Bildaufnahmen mit Dritten zu teilen) bis zu dem Teilen ursprünglich einvernehmlich hergestellter Nacktaufnahmen oder Bildaufnahmen von intimen oder sexuellen Handlungen ohne Einwilligung der wiedergegebenen Person (z. B. bei sog. Revenge Porn, also „Rachepornos“ durch Ex-Partner*innen). Häufig werden intim- oder sexualbezogene persönliche Bildaufnahmen unbefugt mit personenbezogenen Daten, etwa den Klarnamen, der Adresse oder Telefonnummern der Betroffenen, veröffentlicht (sog. Doxing). [3]

Die Bildaufnahmen werden häufig heimlich auf Pornoplattformen hochgeladen, teils mit persönlichen Daten und herabwürdigenden Äußerungen über die Betroffenen, oder sie werden genutzt, um ihnen nachzustellen, sie zu mobben oder Kontrolle über sie auszuüben. Die weitreichende Digitalisierung nahezu aller Lebensbereiche ermöglicht dabei die schnelle und unkontrollierte Verbreitung der Inhalte, etwa über kostenlose und frei zugängliche Pornoplattformen wie „xHamster“ oder „YouPorn“. Einmal online gestellt verteilen sich Kopien auch über die ursprüngliche Plattform hinaus, ebenso über weitere öffentliche sowie nicht-öffentliche Netzwerke, wie bspw. auf Instagram-Accounts und Telegram-Gruppen.[4]

Längst nicht mehr beschränkt sich das Problem nur auf Material, das ein tatsächliches Geschehen wiedergibt. Insbesondere sog. Deepfakes stellen eine erhebliche Gefahr dar.[5] Bei intim- und sexualbezogenen Deepfakes werden Bilder und Videos mittels Künstlicher Intelligenz so manipuliert, dass der täuschend echte Eindruck erweckt wird, eine Person werde etwa bei intimen und/oder sexuellen Handlungen und/oder nackt wiedergegeben. Mithilfe sog. Deepfake-Apps kann jede Person selbst ganz einfach Deepfakes herstellen und jede Person, von der ein digitales Foto zugänglich ist, kann Opfer eines Deepfakes werden.[6]

Es mangelt an empirischen Daten in Deutschland zum Phänomen der bildbasierten sexualisierten Gewalt, inklusive nicht-einvernehmlicher sexualisierter Deepfakes. Nur vereinzelt werden bisher ihre Erscheinungsformen in Studien erfasst.[7] Eine empirische Studie in Australien, Neuseeland und Großbritannien[8] ergab, dass 37,7 % der Befragten schon einmal Opfer von bildbasierter sexualisierter Gewalt wurden. Dabei dürfte von einem erheblichen Dunkelfeld auszugehen sein, da nicht jede betroffene Person von ihrer Viktimisierung weiß.[9]

Zutreffend erkennt der Antrag der FDP, dass es sich bei nicht-einvernehmlichen sexualisierten Deepfakes um eine Form digitaler Gewalt handelt, die schwerwiegende Auswirkungen auf die betroffenen Persönlichkeiten – besonders betroffener Frauen – hat.

Eine diskriminierungssensible Perspektive auf das Phänomen verdeutlicht, dass insbesondere Frauen und andere marginalisierte Gruppen häufiger in pornografischen Deepfakes dargestellt werden. Bereits in einer Analyse des Unternehmens Deeptrace aus dem Jahr 2019 zeigten 61 % der nicht-pornografischen Videos männliche Personen und 39 % weibliche. Hinsichtlich der pornografischen Videos waren hingegen in allen Fällen (100 %) Frauen betroffen. Besonders häufig traf es Personen des öffentlichen Lebens, darunter Politikerinnen, Wissenschaftlerinnen, Aktivistinnen und Frauen aus der Unterhaltungsbranche.[10]

II. Taten mit schwerwiegenden individuellen sowie gesamtgesellschaftlichen Auswirkungen

Hass im Netz hat eine Geschlechterdimension. Wo Frauen sich im Netz öffentlich oder gar politisch äußern, riskieren sie sexistische Anmache, pornografische Pöbeleien, die Androhung von Vergewaltigungen bis hin zu Morddrohungen. Bildbasierte sexualisierte Gewalt ist außerdem in die Bedeutung von Frauenhass als Element extremistischer Strömungen und der radikalisierenden Wirkung des Internets einzuordnen. Der djb betonte dies zuletzt in einem Policy Paper und widmete sich dem in einem Fokusheft der djbZ.[11]

Nicht verkannt werden darf, dass nicht-einvernehmliche sexualisierte Deepfakes auf individueller sowie gesamtgesellschaftlicher Ebene wirken: Sie verletzen nicht nur die Persönlichkeitsrechte der abgebildeten Frauen, sie verändern das gesamte Klima des öffentlichen Diskurses. Tatsächlich ziehen sich viele Frauen infolge digitaler Anfeindungen zurück und verlieren damit die Möglichkeit, am digitalen öffentlichen Diskurs zu partizipieren und ihn mitzugestalten. Der Verlust von Meinungsvielfalt bedeutet somit nicht nur die Verletzung individueller Rechte, sondern gefährdet unsere Demokratie.[12] Auf individueller Ebene können nicht-einvernehmliche sexualisierte Deepfakes schwerwiegende und langfristige psychische sowie physische Schäden hervorrufen, insbesondere durch die entwürdigende sexualisierende Objektivierung.[13]

III. Eine Erweiterung der Regulierung ist dringend geboten

Die im Antrag vorgesehene Erweiterung der Regulierung ist geboten und wird vom djb seit Langem gefordert: Straf- sowie zivilrechtlich zeigt sich ein teils gravierend lückenhafter Schutz von erwachsenen Personen vor bildbasierter sexualisierter Gewalt – nicht zuletzt vor nicht-einvernehmlichen sexualisierten Deepfakes.

1. Es zeigt sich ein unsystematischer und lückenhafter straf- und zivilrechtlicher Schutz Erwachsener

Der strafrechtliche Schutz Erwachsener durch die §§ 184a, 184k, 201a StGB, §§ 33 i. V. m. 22 ff. KUG stellt sich als unsystematisch und lückenhaft dar. Beim zivilrechtlichen Bildnisschutz ergeben sich Schwierigkeiten bei der Abwägung mit der Meinungs- und Kunstfreiheit aus Art. 5 GG, aus den nahezu unbegrenzten digitalen Verbreitungswegen und der häufig nicht eindeutig zu beantwortenden Frage, wer die zivilrechtlich Verantwortlichen sind (etwa bei anonymen Täter*innen und Plattformbetreibenden mit Sitz im Ausland). Hinzu kommt, dass die herkömmlichen zivil- und strafrechtlichen Instrumente häufig zu spät greifen, weil die Inhalte längst einer nahezu unbegrenzten Anzahl von Personen zugänglich gemacht wurden.[14]

Der djb hatte sich dem bereits ausführlich in mehreren Policy Papers gewidmet und betont erneut die hierin offenbarten Lücken.[15] Insbesondere vor dem Hintergrund der am 13. Juni 2024 in Kraft getretenen EU-Gewaltschutzrichtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt besteht für den deutschen Gesetzgeber Handlungsbedarf.[16]

2. Ein konstruktives Begleiten der Bundesratsinitiative, Drs. 222/ ist angezeigt

Zu begrüßen ist das im Antrag beschriebene Bestreben, die Bundesratsinitiative, Drs. 222/24, konstruktiv zu begleiten. Dies sollte nur mit der Setzung des erforderlichen gleichstellungsrechtlichen Fokus auf die Rechte und Würde erfolgen. Bisher ist die geschlechtsspezifische Komponente in der Bundesratsinitiative zu kurz gekommen – mit Blick auf die dargestellte Prävalenz der gegenständlichen Fälle zielt die Bundesratsinitiative in weiten Teilen an der Lebensrealität vorbei.

Der vorgelegte Antrag sieht eine Erweiterung der Bundesratsinitiative um detaillierte Vorschriften zur Kennzeichnung von Deepfakes vor. Während eine Kennzeichnung von Deepfakes grundsätzlich zu begrüßen ist, kann dies nicht einziges Instrument sein.

Es bestehen bereits Transparenzpflichten zur Kennzeichnung von Deepfakes und anderen KI-generierten Medieninhalten, wie es die verabschiedete Verordnung über künstliche Intelligenz (Art. 50 Abs. 2 und Abs. 4 KI‑VO) vorsieht. Hinsichtlich nicht-einvernehmlicher sexualisierter Deepfakes bieten Transparenzpflichten den Betroffenen jedoch nur begrenzte Unterstützung. Neben der zuvor genannten Schließung bestehender rechtlicher Lücken muss ein Schwerpunkt vielmehr auf der Verbesserung der effektiven Durchsetzung von Rechten im Kampf gegen digitale Gewalt liegen.[17]

Eine reine Kennzeichnung der Inhalte kann letztlich mit Blick darauf, dass bereits das Herstellen, Gebrauchen, Manipulieren und Zugänglichmachen häufig „im Verborgenen“ stattfindet, nicht genügen: Neben einem Überfluss an Angeboten, die eine Kennzeichnungspflicht umgehen, etwa im Darkweb, ist es gerade die für Betroffene unkontrollierbare Verbreitung auf spezifischen, nicht-öffentlichen Webseiten und in privaten Netzwerken, wie bspw. Telegram-Gruppen, die besondere Herausforderungen darstellen und eine strenge Einbindung von Technologieunternehmen und Plattformbetreibenden unabdingbar machen.

3. Haftung der Technologieunternehmen und der Plattformbetreibenden in ihrer Schlüsselfunktion

Das Geschäftsmodell vor allem der großen Tech-Firmen führt dazu, dass Algorithmen Inhalte bevorzugen, die besonders viele Reaktionen hervorrufen, also häufig solche, die polarisieren, skandalisieren und Hass schüren. Durch diese Verzerrungen entstehen Echokammern, in denen Hass und Diskriminierungen immer wieder neu bestätigt werden.[18] Als solche Inhalte sind pornografische Deepfakes, insbesondere nicht-einvernehmliche sexualisierte Deepfakes, anzusehen. Um deren Erkennung durch Kennzeichnung, dem Ende ihrer Verbreitung sowie deren endgültige Löschung sicherzustellen, müssen zwingend auch die Technologieunternehmen und Plattformbetreibenden in die Verantwortung gezogen werden.

Zutreffend sieht der Antrag vor, in Zusammenarbeit mit Technologieunternehmen und Plattformbetreibenden die Forschung zur Erkennung und Bekämpfung von Deepfakes und „Pornfakes“ zu stärken und den Wissenstransfer zu fördern. Technologieunternehmen und Plattformbetreibende nehmen hierbei eine Schlüsselfunktion zum Schließen der empirischen Datenlage ein.

Darüber hinaus fordert der djb für Fälle bildbasierter sexualisierter Gewalt, zu diskutieren, wie in Form einer Gefährdungshaftung Anspruchsgrundlagen auf finanziellen Ausgleich gegen Plattformen geschaffen werden können, die z. B. über Verbände oder andere zivilgesellschaftliche Institutionen oder von Aufsichtsbehörden einfordert werden können.[19] Denn bei bildbasierter sexualisierter Gewalt handelt sich um einen Missbrauch von besonders sensiblen personenbezogenen Daten als schwerwiegende Verletzung des Rechts auf sexuelle Selbstbestimmung i. V. m. dem Recht am eigenen Bild. Zu denken ist an eine „Gefährder*innenabgabe“, mit der die infrastrukturellen Bedrohungen und die der Allgemeinheit entstehenden Verletzungsfolgekosten in der plattformisierten Informationsgesellschaft finanziell ausgeglichen werden müssen. Inwieweit Betroffenenorganisationen auch aus einem eigenen Antragsrecht gegen geschlechtsbezogene digitale Gewalt verbreitende Accounts mit rechtsverletzenden Inhalten ohne Personenbezug vorgehen dürfen, ist unter dem Stichwort Gefahrenabwehr ebenfalls zu diskutieren. Im Bereich bildbasierter sexualisierter Gewalt sollten darüber hinaus für Pornoplattformen konkrete Vorabprüfungspflichten und gesonderte Auskunftspflichten geregelt sowie verpflichtend eine inländische Ansprechperson für Betroffene von bildbasierter sexualisierter Gewalt eingeführt werden.[20]

4. Voranbringen des Digitalen Gewaltschutzgesetzes / Gesetzes zur Stärkung der privaten Rechtsverfolgung im Internet

Der djb moniert, dass der vorliegende Diskussionsentwurf des Bundesministeriums der Justiz für ein Gesetz zur Stärkung der privaten Rechtsverfolgung im Internet nicht hinreichend konkretisiert ist, um den vielfältigen Ausprägungen des Herstellens, Gebrauchens, Manipulierens und Zugänglichmachens betreffend nicht-einvernehmlicher sexualisierter Deepfakes zu entsprechen, auch wenn jedenfalls die geplante Aufnahme des § 33 KUG in den Katalog der Rechtsverletzungen ein Schritt in die richtige Richtung wäre, Art. 1 Abs. 1 Nr. 2 GgdG.[21] Wie bereits hinsichtlich des Eckpunktepapiers zum Ausdruck gebracht wurde, wird ein solches Gesetz zahlreichen Betroffenen digitaler Gewalt trotzdem gar nicht oder nur bedingt helfen.[22]

IV. Öffentliche Sensibilisierung und Bildung

Zu begrüßen ist die Aufklärungsarbeit an den Schulen in Nordrhein-Westfalen über Deepfakes und „Pornfakes“ als Instrumente des Mobbings, der Manipulation und der Desinformation.

Über die Arbeiten an Schulen hinaus ist nach dem djb jedoch weitreichend auf ein gesamtgesellschaftliches Umdenken betreffend bildbasierter sexualisierter Gewalt hinzuwirken: Nicht zuletzt wird der Umstand, dass Frauen häufiger von negativen Folgen berichten, auf „das soziale Stigma und die Scham im Zusammenhang mit der weiblichen Sexualität“ zurückgeführt.[23] Insofern ist die vorgesehene Kampagne des vorgelegten Antrags zur Aufklärung der Öffentlichkeit über die Gefahren von Deepfakes und „Pornfakes“, mit besonderem Fokus auf den Schutz der Rechte und Würde von Frauen, zu begrüßen.

V. Verpflichtende Fortbildungsmaßnahmen für rechtsanwendende Personen

Der djb betont erneut die Notwendigkeit des Angebotes von Fortbildungsveranstaltungen für Polizei, Staatsanwält*innen und Richter*innen zum Gesamtphänomen bildbasierter sexualisierter Gewalt mit deren Begleittaten unter Berücksichtigung der Diskriminierungsdimension und der Verpflichtung zur Teilnahme an ihnen.[24] Betroffene beklagen häufig einen unsensiblen und schleppenden Umgang mit ihren Fällen durch die Strafverfolgungsbehörden. Das im Antrag vorgesehene Etablieren von Fortbildungsmaßnahmen für die Polizei und Justiz im Bereich der KI-Straftaten, die auch Deepfakes und „Pornfakes“ einbeziehen, ist daher zu begrüßen. Neben der Etablierung eines Angebots von Fortbildungsveranstaltungen für rechtsanwendende Personen und ihrer verpflichtenden Teilnahme für Polizei, Staatsanwält*innen und Richter*innen zum Thema geschlechtsspezifischer Gewalt, auch mit besonderem Augenmerk auf ihre digitalen Formen,[25] spricht sich der djb erneut für die Einrichtung flächendeckender Schwerpunktstaatsanwaltschaften im Bereich digitaler Gewalt, die mit dem Gesamtphänomen digitaler Gewalt, einschließlich bildbasierter sexualisierter Gewalt, und deren Folgen für die Betroffenen vertraut sind, bis hin zu dem Schutz der personenbezogenen Daten der Betroffenen, aus.[26]

Während ebenso grundsätzlich zu begrüßen ist, dass Deepfakes und „Pornfakes“ als Straftaten systematisch für Nordrhein-Westfalen zu erfassen sind, damit ein umfassendes Bild über Häufigkeit und Verbreitung entstehen kann, sollte eine Erfassung auch bundeslandunabhängig etabliert werden – für Betroffene darf es nicht „vom Zufall abhängen“, in welchem Bundesland sie Gewalt erfahren.

VI. Einrichtung und Aufrechterhaltung flächendeckender Beratungs- und Hilfsangebote

Nicht zuletzt kann der Schutz Betroffener nur durch die effektive Einrichtung und (finanzielle) Aufrechterhaltung von Beratungs- und Hilfsangeboten gewährleistet werden. Sie sind es, die häufig im Erstkontakt den Betroffenen begegnen und besonders geschult sowie sensibilisiert sind. Die im vorgelegten Antrag enthaltenen Forderungen hinsichtlich des Ausbaus psychologischer und rechtlicher Unterstützungsangebote für Betroffene von Deepfakes und „Pornfakes“ und dem Bündeln besonderer Expertise zu Deepfakes und „Pornfakes“ bei der Opferschutzbeauftragten des Landes sowie dem Angebot entsprechender Beratungsangebote für Betroffene digitaler Gewalt dort ist dementsprechend zu konkretisieren.

 

 

Henriette Lyndian      
Vorsitzende Landesverband Nordrhein-Westfalen 

 

Dilken Çelebi, LL.M.
Vorsitzende der Kommission für Strafrecht

 

Jacqueline Sittig
Mitglied der Kommission für Strafrecht

 

 


[1] Vgl. Sittig, Strafrecht und Regulierung von Deepfake-Pornografie, abrufbar unter: https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556843/strafrecht-und-regulierung-von-deepfake-pornografie/ (letzter Zugriff: 04.01.2025).

[2] Der Begriff des Zugänglichmachens wird hier als Oberbegriff für jedwede Art des Schaffens des Zugangs für Dritte unabhängig von ihrer Zahl verwendet. Sie umfasst damit auch das Zugänglichmachen an Einzelne und das Verbreiten einer verkörperten Bildaufnahme oder das öffentliche Zur-Schau-Stellen, vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[3] Vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[4] Vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[5] 92. Konferenz der Justizministerinnen und Justizminister, Beschl. TOP II. 8 Bekämpfung von Gefahren durch sog. Deepfakes, 16.06.21, S. 1; Bundesregierung, abrufbar unter: https://www.bundesregierung.de/breg-de/themen/umgang-mit-desinformation/deep-fakes-1876736 (letzter Zugriff: 30.12.2024).

[6] Vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[7] Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz (Hrsg.), Lauter Hass – leiser Rückzug, Wie Hass im Netz den demokratischen Diskurs bedroht. Ergebnisse einer repräsentativen Befragung, abrufbar unter: https://kompetenznetzwerk-hass-im-netz.de/download_lauterhass.php. (letzter Zugriff: 04.01.2025), S.  37.

[8] Befragt wurden 6109 Personen zwischen 16 und 64 Jahren.  52,1 % der Befragten waren weiblich, 47,9 % männlich; 88,9 % identifizierten sich als heterosexuell, 11,1 % als Teil der queeren Community. Die Auswahl war nicht repräsentativ. Unter den Befragten befanden sich nicht genügend trans, inter und nichtbinäre Personen, um vergleichende Analysen vornehmen zu können. Vgl. zum Ganzen Henry/McGlynn/Flynn/Johnson/Powell/Scott, 2021, 10 f; vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 07.06.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[9] Vgl. Henry/McGlynn/Flynn/Johnson/Powell/Scott, 2021, 11, 21; vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[10] Vgl. Zu einer Auswertung von Deeptrace im Juni und Juli des Jahres 2019, Ajder/Patrini/Cavalli ua, Fn. 12, S. 2, ebenso nach HateAid, Bildbasierte Gewalt im Internet: Von Dickpics und Deepnudes, 20.11.2023, abrufbar unter: https://hateaid.org/bildbasierte-digitale-gewalt/ (zuletzt abgerufen am 04.01.2025); Sittig, Strafrecht und Regulierung von Deepfake-Pornografie, abrufbar unter: https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556843/strafrecht-und-regulierung-von-deepfake-pornografie/ (letzter Zugriff: 04.01.2025).

[11] Vgl. Deutscher Juristinnenbund, Stellungnahme 21-18 Das Netz als antifeministische Radikalisierungsmaschine – Policy Paper zur Bedeutung von Frauenhass als Element extremistischer Strömungen und der radikalisierenden Wirkung des Internets, 9.9.2021, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st21-18 (letzter Zugriff: 04.01.2025); Werner/Sittig, Rechtsextremismus und Antifeminismus in sozialen Netzwerken, djbZ 2024/2, abrufbar unter: https://www.nomos-elibrary.de/pdfjs/web/viewer.html?file=%2F10.5771%2F1866-377X-2024-2-57.pdf&page=1#page=1 (letzter Zugriff: 06.01.2025)

[12] Vgl. Deutscher Juristinnenbund, Digitale Gewalt, abrufbar unter: https://www.djb.de/fokusthemen/digitale-gewalt (letzter Zugriff: 04.01.2025).

[13] Vgl. Sittig, Strafrecht und Regulierung von Deepfake-Pornografie, abrufbar unter: https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556843/strafrecht-und-regulierung-von-deepfake-pornografie/ (letzter Zugriff: 04.01.2025).

[14] Vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[15] Vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025); vgl. Deutscher Juristinnenbund, Policy Paper: 24-39 Sexualisierte Gewalt – Schutzlücken und Reformbedarfe, 18.11.2024, S. 10 ff., abrufbar unter: https://www.djb.de/fileadmin/user_upload/presse/stellungnahmen/st24-39_Sexualisierte_Gewalt.pdf (letzter Zugriff: 04.01.2025); vgl. Deutscher Juristinnenbund, Stellungnahme 23-15 zu den Eckpunkten des Bundesministeriums der Justiz zum Gesetz gegen digitale Gewalt. Drei kleine Schritte in die richtige Richtung – mehr aber auch nicht, 26.05.2023, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-15 (letzter Zugriff: 04.01.2025). Zuletzt auch durch die Sachverständige in Sittig, Strafrecht und Regulierung von Deepfake-Pornografie, abrufbar unter: https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556843/strafrecht-und-regulierung-von-deepfake-pornografie/ (letzter Zugriff: 04.01.2025).

[16] Richtlinie (EU) 2024/1385 des Europäischen Parlaments und des Rates vom 14. Mai 2024 zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt. Art. 5 der Richtlinie verpflichtet die EU-Mitgliedstaaten dazu, nicht-einvernehmliches mittels Informations- und Kommunikationstechnologien öffentliches Zugänglichmachen von Bildern, Videos oder ähnlichen Materialien, die sexualbezogene Inhalte zeigen, zu kriminalisieren, wenn dieses Verhalten geeignet ist, der Person einen erheblichen Schaden zuzufügen. Kriminalisiert werden sollen außerdem das Herstellen, die Manipulation oder Veränderung derartiger Bilder, die nicht-einvernehmlich öffentlich zugänglich gemacht werden – darunter fallen insbesondere auch „Deepfakes“ –, sowie das Drohen mit einer derartigen Handlung, um die Person zur Vornahme, Duldung oder Unterlassung einer Handlung zu zwingen.

[17] Vgl. Kumkar/Griesel, Transparenzpflichten für Deepfakes und synthetische Medieninhalte in der KI‑VO, KIR 2024, 117.

[18] Vgl. Deutscher Juristinnenbund, Digitale Gewalt, abrufbar unter: https://www.djb.de/fokusthemen/digitale-gewalt (letzter Zugriff: 04.01.2025).

[19] Vgl. Stelkens, STREIT 2016, S. 147 (S. 155) a.a.O. Fn 61; Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[20] Vgl. hierzu die gemeinsame Petition #NotYourPorn der Organisationen "HateAid", "Anna Nackt" und "Am I in Porn" auf Change Org, abrufbar unter: https://www.change.org/p/notyourporn-missbrauch-auf-porno-plattformen-muss-verfolgt-werden-bmjv-bund-lambrecht (letzter Zugriff: 04.01.2025); Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 7.6.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[21] Vgl. Bundesministerium der Justiz, Entwurf eines Gesetzes zur Stärkung der privaten Rechtsverfolgung im Internet, abrufbar unter: https://www.bmj.de/SharedDocs/Downloads/DE/Gesetzgebung/DiskE/DiskE_Gesetz_gegen_digitale_Gewalt.pdf?__blob=publicationFile&v=1 (letzter Zugriff: 04.01.2025).

[22] Digitale Gewalt ernst nehmen! Forderungen aus der deutschen Zivilgesellschaft, abrufbar unter: https://www.bosch-stiftung.de/sites/default/files/publications/pdf/2024-10/241010_Forderungspapier-DigitaleGewalt.pdf (letzter Zugriff: 04.01.2025).

[23]Rackley/McGlynn/Johnson/Henry/Gavey/Flynn/Powell, Seeking Justice and Redress for Victim-Survivors of Image-Based Sexual Abuse, 2021, 293, 299: „the social stigma and shame around womens sexuality“; Deutscher Juristinnenbund, Policy Paper 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 07.06.2023, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[24] Deutscher Juristinnenbund, Policy Paper 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 07.06.2023, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[25] Vgl. Deutscher Juristinnenbund, Policy Paper: 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 07.06.2023, S. 9, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025).

[26] Zuletzt: Deutscher Juristinnenbund, Policy Paper 23-17 Bekämpfung bildbasierter sexualisierter Gewalt, 07.06.2023, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st23-17 (letzter Zugriff: 04.01.2025). So auch schon Deutscher Juristinnenbund, Policy Paper 19-23 Mit Recht gegen Hate Speech – Bekämpfung digitaler Gewalt gegen Frauen, 4.11.2024, abrufbar unter: https://www.djb.de/presse/stellungnahmen/detail/st19-23 (letzter Zugriff: 04.01.2025).