<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD with MathML3 v1.2 20190208//EN" "JATS-journalpublishing1-mathml3.rng">
<article xmlns:xlink="http://www.w3.org/1999/xlink"
         article-type="research-article"
         dtd-version="1.2"
         xml:lang="de"><?letex RNG_JATS-journalpublishing1-mathml3 ok?>
   <front>
      <journal-meta>
         <journal-id/>
         <journal-title-group>
            <journal-title>TATuP – Journal for Technology Assessment in Theory and Practice</journal-title>
         </journal-title-group>
         <issn pub-type="ppub">2568-020X</issn>
      </journal-meta>
      <article-meta>
         <article-id>7299</article-id>
         <article-id pub-id-type="doi">10.14512/tatup.7299</article-id>
         <article-categories>
            <subj-group>
               <subject>Reflections</subject>
            </subj-group>
            <subj-group>
               <subject/>
            </subj-group>
         </article-categories>
         <title-group>
            <article-title xml:lang="de">Meeting report: „Datenschutz- und Digitalpolitik in krisenhaften Zeiten. 10. Interdisziplinäre Jahreskonferenz der Plattform Privatheit“. Conference, 2025, Berlin, DE</article-title>
         </title-group>
         <contrib-group>
            <contrib contrib-type="author" corresp="yes" id="Au1" xlink:href="#Aff1">
               <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0003-4459-5483</contrib-id>
               <name name-style="western">
                  <surname>Karaboga</surname>
                  <given-names>Murat</given-names>
               </name>
               <address>
                  <email>murat.karaboga@isi.fraunhofer.de</email>
               </address>
            </contrib>
            <contrib contrib-type="author" id="Au2" xlink:href="#Aff2">
               <name name-style="western">
                  <surname>Schmied</surname>
                  <given-names>Luisa</given-names>
               </name>
            </contrib>
            <contrib contrib-type="author" id="Au3" xlink:href="#Aff2">
               <contrib-id contrib-id-type="orcid">https://orcid.org/0009-0003-7860-9027</contrib-id>
               <name name-style="western">
                  <surname>Nebel</surname>
                  <given-names>Maxi</given-names>
                  <prefix>Dr.</prefix>
               </name>
            </contrib>
            <contrib contrib-type="author" id="Au4" xlink:href="#Aff2">
               <name name-style="western">
                  <surname>Schörnig</surname>
                  <given-names>Aljoscha</given-names>
               </name>
            </contrib>
            <contrib contrib-type="author" id="Au5" xlink:href="#Aff1">
               <name name-style="western">
                  <surname>Ferrarese</surname>
                  <given-names>Barbara</given-names>
               </name>
            </contrib>
            <aff id="Aff1">
               <institution>Fraunhofer-Institut für Innovations- und Systemforschung ISI</institution>
               <addr-line>
                  <city>Karlsruhe</city>
                  <country>Deutschland</country>
               </addr-line>
            </aff>
            <aff id="Aff2">
               <institution>Universität Kassel</institution>
               <institution content-type="dept">Projektgruppe verfassungsverträgliche Technikgestaltung (provet)</institution>
               <addr-line>
                  <city>Kassel</city>
                  <country>Deutschland</country>
               </addr-line>
            </aff>
         </contrib-group>
         <pub-date date-type="pub">
            <day>23</day>
            <month>03</month>
            <year>2026</year>
         </pub-date>
         <fpage>72</fpage>
         <lpage>73</lpage>
         <permissions>
            <copyright-year>2026</copyright-year>
            <copyright-holder>by the author(s); licensee oekom</copyright-holder>
            <license>
               <license-p>This Open Access article is published under a Creative Commons Attribution 4.0 International Licence (CC BY).</license-p>
            </license>
         </permissions>
      </article-meta>
   </front>
   <body>
      <p>Die Entwicklungsrichtung der EU-Datenschutz- und Digitalpolitik schien lange klar: Angesichts der Herausforderungen durch neue Technologien würden Deutschland und die EU mit Regulierung vorangehen, um ihre Bürgerinnen und Bürger sowie die europäischen Werte zu schützen, während gleichzeitig digitale Innovationen vorangetrieben werden sollten, um so die Europäische Union wieder zu einem ernstzunehmenden digitalen Akteur zu machen. Die vielen Digitalregulierungen, insbesondere die Datenschutzgrundverordnung, aber auch die KI-Verordnung, der Digital Services Act oder der Data Act sind Ausdruck dieser Politik. Inzwischen ist die EU-Digitalpolitik unter Druck geraten: Sowohl der politische Druck durch die amtierende US-Regierung, die die Durchsetzung von geltendem EU-Recht verlangsamt hat als auch der weiterhin stagnierende Ausbau der Wettbewerbsfähigkeit der EU bei digitalen Innovationen stellen die EU und Deutschland vor die Frage, inwieweit sich die bestehenden Regelungen vor diesem Hintergrund durchsetzen lassen und wie die Datenschutz- und Digitalpolitik weiterentwickelt werden kann. Währenddessen sammeln Plattformen weiterhin personenbezogene Daten zur Verhaltensanalyse und -beeinflussung. Diese und verwandte Fragen und Themen standen im Mittelpunkt der zehnten Tagung der Plattform Privatheit, die am 1. und 2. Oktober 2025 im Fraunhofer Forum in Berlin mit rund 140 Teilnehmenden stattfand.</p>
      <sec id="Sec1">
         <label>1</label>
         <title>Datenschutz und Selbstbestimmung im Zentrum</title>
         <p>Die Keynotes, Vorträge und Diskussionen auf der Jahreskonferenz machten deutlich, dass Datenschutz und Selbstbestimmung gerade in stürmischen Zeiten unverzichtbar sind. So betonte Alexandra-Gwyn Paetz, Abteilungsleiterin für Technologische Souveränität &amp; Innovation im Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) in ihrer Begrüßungsrede, dass der Schutz europäischer Werte insbesondere in Zeiten der Krise bedeutsam ist. Datenschutz und Wettbewerbsfähigkeit hingen eng zusammen und es gelte jetzt, die digitale Handlungsfähigkeit Europas zu sichern und auszubauen. Das werde jedoch nur gelingen, wenn man über Sektoren und Ländergrenzen hinaus zusammenarbeite.</p>
         <p>Guido Scorza, Mitglied im vierköpfigen Leitungsgremium der italienischen Datenschutzaufsicht, widmete seine Keynote vor allem der Diskrepanz zwischen den vollmundigen Versprechungen von künstlicher Intelligenz (KI) und ihren tatsächlichen Auswirkungen. Anschaulich stellte er dar, dass wir längst in einer hybriden Welt leben, in der KI-Chatbots schon heute unsere Freund:in oder Psychotherapeut:in sind. Angesichts der fehlenden demokratischen Kontrolle über diese – nicht aus der EU stammenden – KI-Technologien, müssten wir uns die Frage stellen, welche Gefahr für unsere Gesellschaft drohe, wenn künftig einige wenige Chatbot-Hersteller das Vertrauen vieler Millionen Bürger:innen genössen und so Gesellschaften von diesen Chatbots im Sinne ihrer Hersteller manipuliert werden könnten. Er benannte zwei Werkzeuge, um die negativen Konsequenzen zu mildern: Regulierung und Bildung. Regulierung müsse KI einhegen, bevor die Algorithmen die Macht übernähmen und aufgrund ihrer Verbreitung in der Gesellschaft de facto regulierend wirkten. Man müsse wegkommen von der Regulierung kleinster technischer Details, pragmatischer werden und mehr Befugnisse an unabhängige Aufsichtsbehörden delegieren. Demokratische Vorgaben müssten seitens der Unternehmen in Code umgewandelt werden. Er stellte klar, dass Regulierung nicht der Feind von Innovation sei, sondern diese den Erhalt und Schutz gesellschaftlicher Werte befördere.</p>
      </sec>
      <sec id="Sec2">
         <label>2</label>
         <title>Die Auswirkungen von KI-Agenten</title>
         <p>Das Panel zu konversationellen KI-Agenten thematisierte Identität, soziale Isolation, ethische Verantwortung und die Zukunft der zwischenmenschlichen Kommunikation. Lisa Mühl (Universität Duisburg-Essen) erläuterte aus psychologischer Sicht, wie Selbstoffenbarung in vermittelten, nicht-menschlichen Interaktionen durch Personalisierung und Kommunikationsmodalität geprägt wird; Privatsphäre wird zum zentralen Feld, da Wahrnehmung von Privatsphäre emotionale Erfahrungen beeinflusst, wenn Verbundenheit, Datenexposition und Kontrolle abgewogen werden. Jessica Heesen (IZEW Tübingen) formulierte drei Thesen: Konversationelle Agenten wecken unerfüllbare Reziprozitätserwartungen; die Imitation menschlichen Aussehens oder Verhaltens schürt Erwartungen an Wahrhaftigkeit, Richtigkeit und emotionale Bindung; Anthropomorphisierung kann Menschlichkeit simulieren und übersehen, dass es sich um Sprachmaschinen handelt. Ein reflektiertes Technikverständnis fordere, Systeme als Artefakte zu erkennen und sie erkennbar zu halten, um falsche Verständigungs-Erwartungen zu vermeiden. Christian Geminn (Universität Kassel) moderierte und betonte Datenschutzaspekte: Rechte auf Berichtigung, Löschung, Übertragbarkeit sowie die Relevanz der KI-Verordnung. Gezielte Regelungen für dialogfähige KI-Companions seien derzeit oft zu gering; neue Ansätze seien nötig, um Risiken wirksam zu begegnen. In der Diskussion ging es um Motivation, Langzeitwirkungen – besonders bei Kindern – und die Art der Nutzungsbeziehungen. Die Datenlage ist uneinheitlich; Beziehungen reichen von platonisch bis romantisch/sexualisiert, exklusiv bis ergänzend. Die Vielfalt erfordere eine fächerübergreifende Auseinandersetzung mit KI-Companions (Nebel <xref ref-type="bibr" rid="CR1">2025</xref>).</p>
         <p>Katja Muñoz, Politikwissenschaftlerin und Research Fellow bei der Deutschen Gesellschaft für Auswärtige Politik, warf die Frage auf, ob unsere demokratischen Systeme bereit für das KI-Zeitalter seien (und gab im Lauf ihrer Keynote die Antwort: nein). Technologische Abhängigkeit führe auch zu demokratischer Abhängigkeit. Muñoz konstatierte, dass es durch KI billiger und schneller geworden sei, Propaganda zu verteilen. Doch KI biete auch Chancen für die Demokratie, über die aber seltener gesprochen werde: Inhalte könnten ressourcenoptimiert produziert werden, was gerade für kleine Parteien wichtig sei. Außerdem lasse sich mit KI politische Kommunikation personalisieren und politische Partizipation stärken. Muñoz schlug KI-gestützte Bürgerplattformen vor, die einen konstruktiven Dialog ermöglichen und den direkten Kontakt zur Politik erhöhen. Zu überlegen sei, wie KI besser für Wissenstransfer genutzt werden könne oder auch, um mit der Gesellschaft zu kommunizieren. Es dürfe dabei aber nicht darum gehen, die Verantwortung auf den User zu übertragen, sondern digitale Infrastrukturen zu schaffen, die Demokratie fördern. Bei einer notwendigen Regulierung zur Eindämmung der Risiken und Nutzbarmachung der Chancen sei überdies darauf zu achten, die Ausgestaltung der Systeme durch demokratisch legimitierte Akteure selbst vorzunehmen, um eine starke Akzeptanz und Legitimität dieser Regulierung zu unterstützen.</p>
         <p content-type="eyecatcher" specific-use="Style2">Sind unsere demokratischen Systeme bereit für das KI-Zeitalter?</p>
      </sec>
      <sec id="Sec3">
         <label>3</label>
         <title>Der Umgang mit Regularien</title>
         <p>Meike Kamp, Berliner Beauftragte für Datenschutz und derzeitige Vorsitzende der Datenschutzkonferenz, skizzierte in ihrer Keynote zentrale Herausforderungen für einen effektiven Datenschutz aus Sicht der Datenschutzbehörden. Dazu zähle, dass der Datenschutz aktuell mit einer regelrechten europäischen Digitalrechtswelle konfrontiert sei. Hinzu komme, dass Fragen, die auf gesetzgeberischer Ebene hätten gelöst werden müssen, in die Aufsichtspraxis verschoben wurden. Sie plädierte dafür, bei föderalen Aufsichtsstrukturen zu bleiben. In Deutschland seien 99 Prozent der Unternehmen kleine und mittlere Unternehmen, die es als Vorteil sähen, dass die Datenschutzaufsicht vor Ort ist. Lokale Datenschutzbehörden gewährleisteten Nähe und Ansprechbarkeit für die Wirtschaft. Föderale, also dezentrale Strukturen verhinderten außerdem, dass durch Druck auf eine einzelne Behörde Macht(-missbrauch) ausgeübt werden kann. Als warnendes Beispiel verwies sie auf die aktuellen Angriffe auf dezentrale Governance-Strukturen in den USA.</p>
         <p>Im Abschlusspanel diskutierten neben Meike Kamp auch Philip Ehmann (eco Verband der Internetwirtschaft e. V., Köln), Rudolf Fischer (stackit/Schwarz Digits, Neckarsulm) sowie Michael Dose (Bundesverband der Deutschen Industrie e. V., Berlin) über die Vereinbarkeit von technologischen Innovationen mit Datenschutz und anderen europäischen Werten. Trotz Differenzen im Detail waren sich die Diskutierenden im Wesentlichen einig, dass mehr Kohärenz im Datenschutz wünschenswert sei. Auch die Wirtschaftsvertreter stützten Kamps Argument, dass die Verantwortung nicht allein bei den Aufsichtsbehörden liege, sondern vor allem beim EU-Gesetzgeber, der die Überarbeitung der DS-GVO für Klarstellungen nutzen müsse. Diese sollten jedoch maßvoll ausfallen, um Unternehmen, die sich an die geltenden Regeln gewöhnt hätten, nicht neuerlich zu verunsichern. Laut Fischer steht Datenschutz und Datensicherheit bei stackit nicht im Widerspruch zu wirtschaftlichem Erfolg, sondern ist eine Voraussetzung, um mit marktfähigen Produkten technologische Souveränität in Europa zu erlangen.</p>
         <p>Die 10. Jahreskonferenz der Plattform Privatheit verdeutlichte, dass die gegenwärtigen Krisenzeiten ein Überdenken der Digitalregulierung erfordern. Die derzeit gültigen, teils überkomplexen Regeln lassen sich von großen Digitalunternehmen leichter einhalten, überfordern aber kleinere Betriebe. Mehrheitlich herrschte Einigkeit, Digitalregulierung so weiterzuentwickeln, dass große Player ihre Systeme werte- und gesellschaftskonform gestalten und bei Verstößen haften sollten. Ob dies gelingt, hängt wesentlich davon ab, wie die EU-Organe die geplante Überarbeitung der bestehenden Digitalregelungen ausgestalten werden.</p>
         <boxed-text id="FPar1" content-type="overview" specific-use="Style1">
            <caption>
               <title>Weitere Informationen</title>
            </caption>
            <p>
               <ext-link xlink:href="https://plattform-privatheit.de">https://plattform-privatheit.de</ext-link>
            </p>
         </boxed-text>
      </sec>
   </body>
   <back>
      <ref-list id="Bib1">
         <title>Literatur</title>
         <ref id="CR1">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Nebel</surname>
                     <given-names>M</given-names>
                  </name>
                  <date>
                     <year>2025</year>
                  </date>
                  <article-title>Digital Omnibus. Kommentierung der Änderung zum Umfang der Informationspflichten des Verantwortlichen (Art. 12 Abs. 5 DS-GVO)</article-title>
                  <issue>23</issue>
                  <page-range>23–27</page-range>
                  <source content-type="journal">ZD Aktuell</source>
                  <volume>15</volume>
               </element-citation>
               <mixed-citation>Nebel, Maxi (2025): Digital Omnibus. Kommentierung der Änderung zum Umfang der Informationspflichten des Verantwortlichen (Art. 12 Abs. 5 DS-GVO). In: ZD Aktuell 15 (23), S. 23–27.</mixed-citation>
            </citation-alternatives>
         </ref>
      </ref-list>
   </back>
</article>
