Stellungnahme: 20-20


zu dem Weißbuch der EU-Kommission „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“

Stellungnahme vom

Der Deutsche Juristinnenbund e.V. (djb) begrüßt die Möglichkeit zur Stellungnahme im Rahmen der öffentlichen Konsultation.

Einheitliche Regulierung von KI auf EU – Ebene

Der djb begrüßt, dass die EU-Kommission einen EU-einheitlichen Regulierungsrahmen für den Einsatz von KI schaffen möchte. Dabei unterstützt der djb nachdrücklich den Werte-basierten Ansatz der EU-Kommission: Entwicklung und Förderung von KI müssen anhand von europäischen Werten erfolgen; die Grundrechte, die Menschenwürde und der Schutz der Privatsphäre sind zu wahren. Es ist unbedingt anzustreben, dass dieser Werte-basierte Ansatz auch im KI-Bereich europaweit durchgesetzt wird. Eine Mindestharmonisierung, die lediglich den Spezifika und dem grenzüberschreitenden Charakter von KI gerecht wird, diese Werte aber vernachlässigt, müsste nationale Gesetzgeber veranlassen, zusätzliche Regelungen zu treffen, was die Fragmentierung verfestigen und Europa als Wertegemeinschaft schwächen würde.

Besonderes Diskriminierungsrisiko durch den Einsatz von KI

Der djb begrüßt die klaren Aussagen im Weißbuch zu dem Diskriminierungsrisiko wegen des Geschlechts bei Einsatz Künstlicher Intelligenz; bestehende gesellschaftliche Vorurteile und Diskriminierungen können verstärkt und perpetuiert werden. Als rechtliches Instrument, um dem entgegen zu wirken, reichen reine Diskriminierungsverbote nicht aus, da diese stets eine eingetretene Benachteiligung voraussetzen. Erst die Entscheidung, die auf Basis eines algorithmischen Prozesses getroffen wurde, ist justiziabel. Der djb ist der Auffassung, dass bereits die reine Kategorisierung von Personen anhand des Geschlechts problematisch ist. Menschen werden gezwungen sich einer vordefinierten Geschlechtsausprägung zuzuordnen und anhand von Durchschnittswerten beurteilt. Diese Kategorisierung berührt bereits den Schutzbereich von Grundrechten (etwa das Recht auf informationelle Selbstbestimmung nach Art. 1 Abs. 1, 2 Abs. 1 GG, und das Recht auf Datenschutz, Art. 7 bzw. Art. 8 EU-GRCh). Gleichzeitig kann die Kategorisierung von Menschen anhand des Geschlechts sinnvoll sein, um strukturelle Diskriminierungen durch gezielte Fördermaßnahmen abzubauen. Die Risiken und Chancen der Kategorisierung im Vorfeld konkreter Entscheidungen müssen bei der Regulierung von KI in einen Ausgleich gebracht werden.

Haftungsfragen beim Einsatz von KI

Der djb teilt die Ausführungen, nach denen die schwer nachvollziehbaren und intransparenten Entscheidungsprozesse der KI dazu führen können, dass bereits geltende Rechtsvorschriften hinsichtlich des Einsatzes von KI schwerer durchsetzbar sind. Hier hält der djb eine entsprechende Anpassung der Haftungsregelungen für unumgänglich, um eine effektive Rechtsdurchsetzung europaweit zu gewährleisten.

Besondere rechtliche Vorgaben im Umgang mit KI-Anwendungen

Ebenso ist der djb wie die EU-Kommission der Auffassung, dass gesonderte rechtliche Vorgaben für KI-Anwendungen zu etablieren sind, um den spezifischen Gefahren Rechnung zu tragen. Anhand der konkreten rechtlichen Vorschläge der EU-Kommission wird zu prüfen sein, ob diese ausreichen, um den Gefahren von Diskriminierungen durch den Einsatz von KI effektiv zu begegnen. Die im Weißbuch beschriebenen Ideen für rechtlich verbindliche Anforderungen für KI-Anwendungen gehen in die richtige Richtung. Der Ansatz der EU-Kommission, durch Auflagen sicherzustellen, dass die der KI zu Grunde liegenden Datensätze insbesondere hinsichtlich des Geschlechts ausreichend repräsentativ sein müssen, wird ausdrücklich unterstützt. Wegen der vorhandenen tatsächlichen Ungerechtigkeiten ist es jedoch wichtig, zugleich eine gendergerechte Überprüfung und Bereinigung der Daten vorzunehmen, um Diskriminierung zu verhindern. Zudem wird die Forderung, dass für den Algorithmus verwendete Daten und Trainingsdaten aufzuzeichnen und aufzubewahren sind, begrüßt. Ergänzend ist in Bereichen, in denen es zu Diskriminierungen und sonstigen Grundrechtsverletzungen kommen kann, ein Recht auf Erklärung der individuellen Entscheidung zu etablieren. Hierdurch kann überprüft werden, ob die für die KI-Prozesse und Datenauswahl zu entwickelnden Regelungen eingehalten wurden. Zudem benötigen Menschen, die von negativen Auswirkungen der Anwendung Künstlicher Intelligenz betroffen sind, diese Informationen, um mögliche Ansprüche durchsetzen zu können. Zu bedenken ist ebenfalls, ob zusätzlich Regelungen zur Einsichtnahme und der Beweislast zu Gunsten diskriminierter Personen erforderlich werden können. In jedem Fall stellt die von der EU-Kommission vorgeschlagene menschliche Überprüfung von Ergebnissen eines KI-Systems ein sinnvolles und notwendiges Korrektiv dar.

Ausbildung von KI-Expertinnen

Die Darlegungen der EU-Kommission, dass besonders Frauen für den KI-Bereich ausgebildet werden sollten, sind zu begrüßen. Die den Algorithmen zu Grunde liegenden Annahmen und die Auswahl der Datensätze werden von Menschen konzipiert. Daher können die Wertvorstellungen der programmierenden Person Einfluss auf die Konzeption des Algorithmus haben. So sollte auch die Ausbildung von Programmier*innen gendersensible Elemente enthalten. Möglichkeiten, um etwa den Anteil weiblicher Programmiererinnen deutlich zu erhöhen, bestehen in besonderen Bildungsangeboten bzw. angepassten Curricula, aber auch in der Festlegung entsprechender Kriterien bei öffentlichen Auftragsvergaben.

Fazit

Das Weißbuch der EU-Kommission wird vom djb grundsätzlich unterstützt. Dies betrifft zum einen die Darstellung der Gefahren bei der Anwendung von KI, insbesondere des Diskriminierungspotenzials wegen des Geschlechts. Zum anderen enthält das Weißbuch eine Reihe möglicher Ansatzpunkte, wie Diskriminierungen entgegengewirkt werden könnte; diese müssen weiterentwickelt und ergänzt werden. Allerdings ist der Ansatz, nur „hochriskante“ Anwendungen zu regulieren, aus Sicht des djb nicht geeignet, Grundrechtsverletzungen und Diskriminierungen wirksam zu verhindern. Der djb schließt sich hier der Position der Datenethikkommission an, nach der nur KI-Anwendungen mit ganz geringem Risiko von einer Regulierung ausgenommen werden sollen.

Prof. Dr. Maria Wersig                                        
Präsidentin           

Claudia Zimmermann-Schwartz
Vorsitzende der Kommission Digitales