Meeting report: „Perspektiven soziotechnischer Gestaltung von Datensouveränität, Privatheit und Fairness im Kontext einer internationalen Data Governance“, 2022, Berlin, DE

Greta Runge*, 1 https://orcid.org/0000-0002-6698-2073, Murat Karaboga1 https://orcid.org/0000-0003-4459-5483

* Corresponding author: greta.runge@isi.fraunhofer.de

1 Fraunhofer-Institut für Innovations- und Systemforschung, Karlsruhe, DE

© 2023 by the authors; licensee oekom. This Open Access article is licensed under a Creative Commons Attribution 4.0 International License (CC BY).

TATuP 32/1 (2023), S. 76–77, https://doi.org/10.14512/tatup.32.1.76

Published online: 23. 03. 2023

Data Governance[1] bildet den Handlungsrahmen für einen souveränen und selbstbestimmten Umgang mit Daten von Nationalstaaten, Unternehmen, Verwaltungen oder der Zivilgesellschaft. Die aktuelle Diskussion um den Aufbau eines solchen Ordnungs- und Handlungsrahmens ist nicht nur mit gegensätzlichen Ansichten über die nationale Ausgestaltung, sondern auch mit divergierenden Interessen zwischen Einzelpersonen, Unternehmen und Regierungen im internationalen Wettbewerb verbunden. Die Entwicklung und Anwendung gemeinsamer Grundsätze, Prinzipien, Regeln und Verfahren durch verschiedene Akteure in Bezug auf Datentransfers stand im Mittelpunkt der interdisziplinären Jahreskonferenz ‚Daten-Fairness in einer globalisierten Welt – Grundrechtsschutz und Wettbewerb für eine internationale Data Governance‘ des Forum Privatheit am 13. und 14. Oktober 2022 (Humboldt Carré, Berlin). Grundsätzlich galt und gilt es, in der Diskussion um Data Governance vor allem die Frage zu beantworten, wie Daten ökonomisch genutzt werden können, ohne dass der Schutz personenbezogener Daten gefährdet wird. Um sich diesem Problem aus interdisziplinärer Perspektive zu nähern, wurden im Rahmen der Konferenz zentrale Gestaltungsfragen der Datennutzung und des Datenteilens sowie Auswirkungen von datenbasierten Entscheidungen für Gesellschaft und Wirtschaft diskutiert.

Integrative Konzepte für einen selbstbestimmten Umgang mit Daten

Wolfgang Kerber, Professor für Wirtschaftspolitik an der Universität Marburg, problematisierte in seinem Vortrag die Macht der digitalen Wirtschaft und der dadurch eingeschränkten Handlungs- und Entscheidungsautonomie von Konsument:innen im Internet. Das Individuum könne aufgrund diverser Marktversagensprobleme auf Datenmärkten nicht selbstbestimmt über den Umgang mit seinen personenbezogenen Daten entscheiden (Stichwort: Datensouveränität). Er schlug daher eine Verzahnung von Wettbewerbs- und Datenschutzrecht in der digitalen Wirtschaft vor. Wie Machtasymmetrien in der Informationsgesellschaft begegnet werden und datenschutzfreundliche Technikgestaltung (Privacy-by-Design) gelingen kann, wurde im Rahmen der Konferenz an vielen anwendungsnahen Beispielen diskutiert. Insbesondere standen hierbei Ansätze und Strategien im Fokus, die praktikabel und effektiv erscheinen, um Transparenz über die Datenverarbeitung und Informiertheit auf Seiten der Nutzenden zu verbessern. Wissenschaftler:innen der Uni Kassel stellten ein Systemkonzept vor, welches die Datenschutzerklärung von Webseiten und Anwendungen ersetzen könnte, um für Nutzer:innen mehr Transparenz über die Verarbeitung personenbezogener Daten herzustellen. Der interaktive Privacy-Assistent soll hierbei eine Schnittstelle zur Wahrnehmung von Betroffenenrechten darstellen. Ähnlich wie bei dem Konzept für eine automatisierte Datenschutzselbstauskunft (DSA) von Forschenden der Uni Passau und der Technischen Hochschule Deggendorf scheint die Entschlossenheit bei der Umsetzung der bislang theoretischen Konzepte, insbesondere auch auf Seiten der Hersteller und Unternehmen, entscheidend zu sein.

Rechtliche Rahmung und Prinzipien für eine faire Data Governance

Die Integration der gesellschaftlichen Perspektive bei der Gestaltung digitaler Infrastrukturen wurde im Rahmen mehrerer Sessions nicht nur hinsichtlich des Schutzes von Privatheit und der Förderung von Fairness, sondern auch für den Aufbau einer Data Governance im Sinne eines soziotechnischen Systems herausgestellt. Nach Marit Hansen und Felix Bieker vom unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein sowie dem ‚Forum Privatheit‘ müsse die Gestaltung von Datentransfers über spezifische datenschutzrechtliche Regelungen hinausgehen und auch übergeordnete Anforderungen der Daten- und Design-Gerechtigkeit berücksichtigen.

Im Rahmen eines Streitgesprächs über den Transfer personenbezogener Daten an Adressaten außerhalb der EU (Drittstaatentransfer) diskutierten Marie-Louise Gächter, Leiterin der Datenschutzstelle Liechtenstein und Professorin für Datenschutzrecht an der Universität Fribourg, Hartmut Aden, Professor für Europarecht an der Hochschule für Wirtschaft und Recht in Berlin und Alexander Duisberg von der Kanzlei Bird & Bird in München über den Bedarf nach Maßnahmen zugunsten des Schutzes der Rechte und Freiheiten von Betroffenen bei der Datenübermittlung in Drittstaaten. Im Zentrum der Diskussion stand die Frage, welche Ausstrahlung die Europäische Union und speziell das europäische Datenschutzrecht auf die Rechtssysteme anderer Weltregionen haben kann und sollte. Ferner wurde diskutiert, ob auf andere Instrumente und Prinzipien, wie eine internationale Vertrauensordnung für den Aufbau einer Data Governance gesetzt werden sollte. Problematisch erschien den Diskutant:innen in diesem Zusammenhang, dass es unterschiedliche Auffassungen des Vertrauensbegriffes gäbe, was die Formulierung globaler Lösungsansätze behindere. Mit dem Vertrauensbegriff setzten sich auch Murat Karaboga und Greta Runge vom Fraunhofer ISI, ebenfalls Mitglieder im ‚Forum Privatheit‘, auseinander. Aufbauend auf einer historischen Rekonstruktion der Annahme, dass Vertrauen einen Schlüsselaspekt bei der Nutzungsentscheidung in Bezug auf digitale Dienste darstellt (Vertrauensargument), erläuterten sie die Bedeutsamkeit des Arguments in der Genese der Datenschutzgrundverordnung und argumentierten auf empirischer Basis, dass Vertrauen in Datenverarbeitungen bei der Nutzungsentscheidung, anders als in politischen Diskursen angenommen, in der Regel keine entscheidende Rolle spiele.

Programmierte Gerechtigkeit als Basis für den Aufbau datenbasierter Infrastrukturen

Alex Hanna vom Distributed AI Research Institute erörterte in ihrer Keynote, dass algorithmische Ungerechtigkeit durch die Auswahl und Zusammensetzung der Datensätze entstehe, die von Künstlicher Intelligenz (KI) verarbeitet werden.

Nach Ansicht der Wissenschaftlerin sollten Daten verstärkt als Träger von Politik und Macht verstanden und beim Aufbau von Dateninfrastrukturen als solche reflektiert werden. Ferner hob Hanna die Bedeutung einer Genealogie von Datensätzen hervor, wonach die an der Erstellung von Datensätzen beteiligten Organisationen und Akteure sowie die von diesen ausgehenden Absichten und Werte noch stärker in den Fokus der KI-Forschung rücken müssten. Eine systematische historische Analyse der Daten könne algorithmische Ungerechtigkeit adressieren und der Tatsache entgegenwirken, dass sich ‚Unfairness‘ oftmals nur darin begründe, dass nicht genügend repräsentative Daten vorlägen. Die Anfechtbarkeit von algorithmischen Entscheidungsprozessen sollten zudem verstärkt ins Zentrum der Gestaltung von Dateninfrastrukturen und folglich auch der Datenverarbeitung rücken.

Daten sollten verstärkt als Träger von Politik und Macht verstanden und beim Aufbau von Dateninfrastrukturen als solche reflektiert werden.

‚Programmierte Ungerechtigkeit‘ beleuchtete auch Mar Hicks vom Illinois Institute of Technology in ihrer Keynote und zeichnete die Geschichte geschlechtsspezifischer Technokratie in England nach. Hicks legte dar, dass sich Datensätze oftmals an Männern als Standard orientieren, sodass aufgrund algorithmischer Selektionsentscheidungen auch heute noch technische Fähigkeiten nicht ausreichten, um beispielsweise Frauen in Positionen im Bereich der Wissenschaft und Technik zu fördern. Hicks zeigte auf, welche ökonomischen Folgen das Verschwinden der Frauen aus technischen Bereichen für Großbritannien hatte und warum das Vereinigte Königreich Gefahr laufe, diese durch veraltete Rollenvorstellungen verursachten Fehler im 21. Jahrhundert zu wiederholen.

Data Governance auf politischer, institutioneller und anwendungsnaher Ebene gestalten

Die Europäische Kommission hat mit dem ‚Data Governance Act‘ den Grundstein zur Schaffung eines Handlungs- und Ordnungsrahmens für einen europäischen Datenaustausch gelegt. Dieser soll auf politischer Ebene eine Balance zwischen dem Schutz von personenbezogenen Daten und der Förderung datenbasierter Technologien (z. B. KI) schaffen. Die Diskussionen der Konferenz zeigten, dass dieses Ziel maßgeblich auch von kollektiver Verantwortung und gesellschaftszentrierter Gestaltung der technischen Infrastruktur – somit von Vorhaben und Grundsätzen von Unternehmen und Organisation abhängen (institutionelle Ebene). Ferner gilt es mit Blick auf Gestaltungsziele wie Fairness und Datensouveränität, die Gesellschaft und die Nutzer:innen in den Mittelpunkt der Data Governance zu rücken (Anwendungsebene). Auf der politischen, institutionellen sowie anwendungsnahen Ebene ergeben sich weitergehende Fragen zur Ausgestaltung einer Data Governance, die es im Rahmen von interdisziplinären Diskussionen (u. a. im ‚Forum Privatheit‘) zu beantworten gilt.

Weitere Informationen

Die Dokumentation der Tagung inkl. Video-Mitschnitte, Fotos, Präsentationen und Graphic Recordings ist zu finden unter https://www.forum-privatheit.de/jahreskonferenz-2022/.

Footnote

[1]    Definition in Anlehnung an das Verständnis von Data Governance nach Verordnung (EU) 2022/868 des europäischen Parlaments und des Rates vom 30. Mai 2022 über europäische Daten-Governance und zur Änderung der Verordnung (EU) 2018/1724 (Daten-Governance-Rechtsakt), S. 4.