Skip to content
Menu
dino2

„Are we in the midst of the jurassic period and the new top predator is hunting the GDPR?“

Luca Bolognini brachte diesen Vergleich, da heuer das 4. Privacysymposium in Venedig massiv von Thema AI beherrscht wurde.  Doch wie T-Rex mit seinem kleinen Kopf, ist AI nicht per se intelligent. Es liegt an uns, die sogenannte künstliche Intelligenz zu domestizieren und die Freiheiten der Menschen zu bewahren.

900 Teilnehmer:innen haben sich mit 495 Sprecher:innen in 135 Session beim privacysymposium im Mai 2025 in Venedig zu Datenschutzthemen ausgetauscht. Und wie immer kommen wir aus Venedig mit einem ganzen Rucksack an Fragen zurück. Noch sind wenige Antworten enthalten, aber das ist auch der Sinn der Veranstaltung. Das ist kein Kurs für Datenschutzanfänger, in dem die Rechtsgrundlagen nach Art 6 vorgebetet werden. Gerade die italienischen Panels bewegen sich oft im rechtsphilosophischen und grundrechtlichen Raum.

Vorweg die Conclusio: Künstliche Intelligenz (AI – artificial intelligence) ist gekommen, um zu bleiben. Und wenn wir uns als DPOs (DPO – Datenschutzbeauftragte) nicht um dieses Thema aus Sicht der Auswirkungen auf die Rechte und Freiheiten der Menschen kümmern, müssen wir uns bald die Frage nach unserer Existenzberechtigung gefallen lassen.

Unsere Zukunft und AI

Auch Papst Leo XIV hat in einer seiner ersten Ansprachen AI erwähnt: „Und heute bietet die Kirche allen Menschen das Vermächtnis ihrer Soziallehre, um auf eine weitere soziale Revolution zu reagieren: die Entwicklungen der künstlichen Intelligenz, die neue Herausforderungen für die Verteidigung der Menschenwürde, der Gerechtigkeit und der Arbeit mit sich bringen. „

Bei Datenschutz können wir auf lange Erfahrung mit dem Thema verweisen – schon Jahrzehnte vor der DSGVO; AI ist gerade erst in rasanter Entwicklung: hatte GPT1 noch 117 Millionen Parameter, hat GPT4 schon 1760 Milliarden Parameter. Wir DPOs tun uns bei der Betrachtung eines Prozesses mit personenbezogenen Daten bei dem AI eingesetzt wird u.a. deshalb so schwer, da die DSGVO und der AI-Act vom Ansatz her unterschiedlich sind: Die DSGVO ist ein technologieneutraler Ansatz, der AI-Act ist eine Produktregulierung.

Die DSGVO will, dass unsere Grundrechte und Grundfreiheiten geschützt werden. Nur demokratische Staaten schützen auch diese Rechte ihrer Bürger:innen und haben ein Interesse am Schutz ihrer Daten. Totalitäre Staaten wollen keinen Datenschutz, da sie auch nicht die Rechte und Freiheiten der Menschen schützen wollen.

Orwells Zitat aus 1984 „Wer die Vergangenheit kontrolliert, kontrolliert die Zukunft. Wer die Gegenwart kontrolliert, kontrolliert die Vergangenheit“ bekommt durch IA eine ganz neue Bedeutung:

  • Denn wie viele User hinterfragen die erste Antwort ihres Handys?
  • Gibt es die Quelle überhaupt oder sind die Daten für das Training manipuliert worden?
  • Kann ich überhaupt eine Aufgabe an AI delegieren? Wer ist verantwortlich? IA unterteilt eine Aufgabe in Unteraufgaben, was die Beantwortung noch schwieriger macht.
  • Wir verlieren die Fähigkeit zu entscheiden und uns verantwortlich zu fühlen „ich war es nicht, das war der Algorithmus“

Eine der immanenten Gefahren von IA als lernenden System ist, dass es ein System ist, das gewohnt ist, dass wir zustimmen und nicht widersprechen. Das führt aber auch dazu, dass IA uns das sagt, was sie glaubt, dass wir hören wollen und so die Bildung von Meinungsblasen verstärkt.

Menschen neigen dazu alles, was uns umgibt, auch den Staubsaugerroboter, zu vermenschlichen. Wir haben die juristische Person geschaffen und selbst falls wir die IA zur Person machen, wird sie kein menschliches Wesen.
IA stellt eine Chance und eine Gefahr für die Rechte und Freiheiten von uns und den Generationen nach uns dar.

Doch egal, was wir tun und mit welchen Hilfsmitteln, wir müssen evaluieren und überlegen. Denn es gibt wie immer einen ein Kompromiss zwischen Nutzen und Sicherheit.

Rolle des Datenschutzbeauftragten von morgen

Die notwendigen Kompetenzen haben sich weiterentwickelt zur Multidisziplinarität:

  • Es ist wichtig die Sprache der Rechtswissenschaft, der Informatik und des Managements zu verstehen. è „Du musst es einem Richter erklären können.“
  • Wir müssen die Leidenschaft für Datenschutz weitergeben è Datenschutz muss „POPP“ machen „deve fare POP.
  • Datenschutz und Cybersecurity müssen von Anfang an in den Prozessen mitgedacht werden.
  • Unsere wesentliche Fähigkeit ist es Fragen zu stellen und zu kommunizieren.
  • Wir als DPOs sind wesentliche Teile der Architektur, Teil des Designprozesses und der Beurteilung.
  • DPO ist nicht mehr eine Rolle, sondern eine Funktion und somit werden diese Aufgaben nicht von einer Person, sondern einer Gruppe wahrgenommen

Ein DPO muss die Geschäftsleitung unterstützen. Aber er muss sich dagegenstemmen, missbraucht zu werden:

  • Es ist weder seine Aufgabe Entscheidungen zu treffen noch kritiklos im Interesse der Firma zu agieren.
  • Unsere Aufgabe ist das Beraten und das Aufzeigen von Schwachstellen bzw. Problemen.

Die Arbeit von Datenschutzbeauftragten kann auch vereinfacht werden:

  • Automatisierung von Audits
  • Auslagerung von Audits z.B. Audits durch eine interne Revision oder durch Externe (Verhaltenscodices, Zertifizierungen)

Die Rolle des DPO in der AI

Wie können uns als DPO nicht aus AI herausnehmen, sonst machen wir uns überflüssig. Wie es ein Vertreter eines italienischen Datenschutzvereins gesagt hat: „Künstliche Intelligenz gibt es nicht, es sind nur dumme Algorithmen.

Nur weil ich den Algorithmus nicht kenne/verstehe, heißt das nicht, dass in der Blackbox gezaubert wird. Wenn ein Wissenschaftler den Begriff Blackbox verwendet, meint er, dass er nicht sagen will, was er getan hat.“ Allerdings besteht die Gefahr der Überlastung, wenn sich der Datenschutzbeauftragte auch noch um AI kümmert. Deshalb sollten die Aufgaben und Zuständigkeiten zur Beurteilung und Dokumentation definiert aufgeteilt werden.

Dennoch müssen alle IA-Systeme dokumentiert werden und gemäß IA-Act klassifiziert (niedriges, mittleres, hohes Risiko) und auf Verwendung personenbezogener Daten überprüft werden.

Harmonisierte System der Risikobeurteilung und der Dokumentation

Die Prozesse für die Überwachung der IA-Systeme und der Verarbeitung von personenbezogenen Daten bezüglich Rechenschaftspflicht sind zu harmonisieren.

Ein Privacy Impact Assessment (PIA) bzw. eine Datenschutzfolgenabschätzung (DSFA) müssen mit der IA-Risikobewertung in einem Prozess vereinigt werden, indem eine Methode angewandt wird, die sowohl die Risiken für die (Grund-)Rechte der Menschen, ihre Privatsphäre als auch die technologischen und operativen Risiken der Systeme behandelt.

Zur Beurteilung von IA können auch Normen herangezogen werden:

  • ISO 42001 Managementsystem für Künstliche Intelligenz
  • ISO 42005 AI system impact assessment

Gerade bei AI muss die DSFA weitergedacht werden, hin zur FRIA.

Transparenz und Überwachung der Lieferkette

Ein System der Überwachung (due diligence Prüfung) der supply-chain der AI-Modelle erstellen, das garantiert:

  • Transparenz über die Lieferanten (durch Beteiligung/Orientierung an den Due-Diligence-Aktivitäten zur Korruptionsbekämpfung).
  • Audit der Modelle vor Einführung und bei Änderungen
  • Überprüfung der Einhaltung der geltenden Vorschriften durch die Lieferanten

Integrierte Plattform für die Compliance Dokumentation

DPOs haben mit dem Verarbeitungsverzeichnis schon ein passendes Werkzeug zur Dokumentation, das bei passender Anwendung um AI-Informationen ergänzt werden kann, um Teile der Anforderungen nach Art 9 bis 11 AI-Act zu erfüllen.

Zentralisierung der Register als Nachweis der integrierten Compliance-Aktivitäten

  • Führung von zentralen Registern, die die Anforderungen der DSGVO (Verarbeitungsverzeichnis), des AI-Acts (IA-Protokoll) und des dIDAS 2 (Authentifizierung und Signaturen) kombinieren.
  • Einführung einer technologischen Lösung, die eine zentralisierte Verwaltung der Nachweise ermöglicht.
  • Beibehaltung einer klaren Unterscheidung zwischen den verschiedenen Vorschriften, um die spezifische Konformität zu gewährleisten.

FRIA und HRIA (Fundamental Rights Impact Assessment und Human Rights Impact Assessment)

Eine Datenschutzfolgenabschätzung (DPIA Data Protection Impact Assessment) ist eigentlich kein Impact Assessment, sondern ein Risk Assessment.

Da gerade IA oftmals nicht das Individuum, sondern das Kollektiv betrifft, sind die Auswirkungen auf die Grundrechte/Menschenrechte zu prüfen.
FRIA bezieht sich auf die „Charter of Fundamental Rights oft he European Union“

HRIA bezieht sich auf die United Nations‘ „Universal Declaration of Human Rights“

In der praktischen Prüfung braucht zwischen FRIA und HRIA nicht unterschieden zu werden. Es geht nicht um abstrakte/theoretische Risken, sondern um reale Risiken, die eintreten können.

Ebenso sollten die Prozesse für DPIA und FRIA ident sein. Es gibt Fälle, wo eine DPIA, andere wo eine FRIA und wieder solche wo beide notwendig sind.

3 wichtige Grundrechte:

  • Datenschutz/Privatsphäre
  • Nichtdiskriminierung
  • Vorhandensein von Rechtsbehelfen (Recht auf Anrufung eines Gerichts)

Unterlagen zu diesem Thema

Art 27 und Erw. 96 AI-Act legen fest, für welche AI-Systeme eine FRIA notwendig ist

 

Von Privacy by Design zu Resilience by Design

Resilience by Design

Resilience by Design ist der proaktive Ansatz, bei dem die Fähigkeit, Störungen zu widerstehen, sich an sie anzupassen und sich von ihnen zu erholen, von Anfang an bewusst in das grundlegende Design und die Architektur eines Systems, eines Produkts, einer Dienstleistung oder einer Organisationsform integriert wird.

Die Schlüsselelemente von Resilience by Design sind:

  • Antizipation: Identifizierung potenzieller Schwachstellen und Fehlerquellen während der Entwurfsphase.
  • Redundanz: Einbindung von Backup-Systemen und -Komponenten, um den Betrieb auch bei Ausfall der primären Systeme sicherzustellen.
  • Modularität: Entwurf von Systemen mit unabhängigen, austauschbaren Teilen, um Fehler zu isolieren und Reparaturen oder Austausch zu erleichtern
  • Flexibilität und Anpassungsfähigkeit: Einbau von Funktionen zur Anpassung an veränderte Bedingungen und Anforderungen.
  • Entkopplung: Minimierung der gegenseitigen Abhängigkeiten zwischen Komponenten, um Kettenausfälle zu verhindern.
  • Überwachung und Selbstheilung: Implementierung von Mechanismen zur frühzeitigen Erkennung von Problemen und zur automatischen Einleitung von Wiederherstellungsprozessen.
  • Testen und Simulation: Regelmäßige Überprüfung der Fähigkeit des Systems, verschiedenen Szenarien standzuhalten und sich davon zu erholen.

Datenschutzresilienz

Datenschutzresilienz ist die Fähigkeit einer Organisation, die Vertraulichkeit, Integrität und Verfügbarkeit personenbezogener Daten zu wahren und die kontinuierliche Einhaltung von Datenschutzgrundsätzen und -vorschriften sicherzustellen, selbst bei Störungen, Herausforderungen oder feindseligen Handlungen.

Die Schlüsselelemente von Datenschutzresilienz sind:

  • Antizipation und Prävention: Ähnlich wie bei der Cyber-Resilienz geht es bei der Datenschutzresilienz darum, potenzielle Datenschutzrisiken, Schwachstellen und Bedrohungen proaktiv zu identifizieren. Dazu gehört das Verständnis von Datenflüssen, Verarbeitungsaktivitäten und potenziellen Fehlerquellen, die sich auf personenbezogene Daten auswirken könnten.
  • Widerstandsfähigkeit und Anpassungsfähigkeit: Hier geht es darum, Systeme und Prozesse zu entwickeln, die auch bei Herausforderungen wie Datenverstößen, technischen Ausfällen, gesetzlichen Änderungen oder sich ändernden Nutzererwartungen die Datenschutzgrundsätze weiterhin einhalten können.
  • Wiederherstellung: Wenn ein Data Breach auftritt, konzentriert sich die Datenschutzresilienz auf die Fähigkeit, effektiv zu reagieren, Schäden für Einzelpersonen zu mindern, Datenschutzmaßnahmen wiederherzustellen und aus dem Vorfall zu lernen, um zukünftige Vorfälle zu verhindern.
  • Kontinuierliche Compliance und Vertrauen: Datenschutzresilienz zielt darauf ab, die kontinuierliche Einhaltung relevanter Datenschutzgesetze, Vorschriften und ethischer Grundsätze sicherzustellen und weiters das Vertrauen von Personen aufrechtzuerhalten, indem das Engagement für den Schutz ihrer personenbezogenen Daten auch unter schwierigen Umständen unter Beweis gestellt wird.

Wie Datenschutzresilienz und Cyber-Resilienz zusammenhängen

  • Eine robuste Cyber-Resilienz-Strategie hilft, Vorfälle zu verhindern und abzuschwächen, die personenbezogene Daten gefährden könnten, und trägt so zur Datenschutzresilienz bei.
  • Umgekehrt stärkt die Einbettung von Datenschutzaspekten in die Gestaltung resilienter Systeme die allgemeine Cyber-Resilienz, indem sie die potenziellen Auswirkungen von Verstößen auf Einzelpersonen verringert.
  • Viele Datenschutzprobleme werden durch Cybersicherheitsvorfälle ausgelöst.
  • Während Cyber-Resilienz sich auf die allgemeine Betriebskontinuität und Sicherheit digitaler Vermögenswerte konzentriert, liegt der Schwerpunkt der Datenschutzresilienz speziell auf personenbezogenen Daten und den Rechten des Einzelnen.
  • Ein cyberresilientes System kann dennoch nicht datenschutzresilient sein, wenn beispielsweise während eines Wiederherstellungsprozesses personenbezogene Daten versehentlich offengelegt oder falsch behandelt werden.

Wie Datenschutzresilienz auf Privacy by Design aufbaut

  • Privacy by Design, d.h. Datenschutz durch Technikgestaltung, legt den Grundstein für Datenschutzresilienz, indem Datenschutz von Anfang an in das System integriert wird. Dies verringert die Wahrscheinlichkeit von Datenschutzlücken und erleichtert die Aufrechterhaltung des Datenschutzes bei Störungen.
  • Datenschutzresilienz erfordert eine längerfristige, dynamischere Perspektive als die ursprüngliche Entwurfsphase.

Agentic AI

Agentische KI bezieht sich auf AI-Systeme, die autonom handeln, Entscheidungen treffen und Maßnahmen ergreifen, um bestimmte Ziele mit minimalem menschlichem Eingriff zu erreichen. Diese Systeme sind so konzipiert, dass sie den Kontext verstehen, sich an veränderte Umgebungen anpassen und mit Menschen zusammenarbeiten, um komplexe Herausforderungen zu lösen. Sie sollen die Handlungen und Bedürfnisse eines Nutzers erschließen und können multimodale Fähigkeiten haben, d.h. unterschiedliche Informationen wie Text, Video usw. zu verarbeiten.

agents

Open AI betreibt nach eigener Aussage großen Aufwand und den Personenbezug aus Quelldaten zu entfernen, da sie nicht mit ihren Modellen Aussagen nicht Aussagen über einzelne Personen, sondern über das Verhalten von Menschen treffen wollen. Ein Verhaltensmodell ist kein Spreadsheet über das Verhalten vieler Personen.

Gibt es auch gutes deep fake?

Wenn jemand mit AI Videos erstellt in denen Aussehen und die Stimme eines existierenden Menschen nachgemacht werden und das zum Schaden dieser Person und anderer verwendet wird, dann ist das deep fake – so viel ist uns klar.

Doch wenn ich Schulungsvideos erstelle und mir damit viel Zeit erspare, da mein Avatar meine Texte vorliest und wenn ich den Text ändere/aktualisiere, dann ist das kein deep fake. Wenn meine Mitarbeiter:innen diese Texte ändern oder gar neu erstellen und mein Avatar diese Texte präsentiert, ab welchen Punkt ist das noch mein Werk und wo beginnt deep fake? Wie werden die Authentizität des Werks oder das Gegenteil bewiesen? Wie soll das bewertet werden? Was ist echt und was gefälscht? Wie schaut es mit den Urheberrechten aus?

Das berechtigte Interesse und Einwilligung sind jedenfalls eine valide Basis für die Verwendung von AI. Und zu Hause kann ich mich auf die household exemption berufen. Aber wie schaut es mit der kommerziellen Verwendung der entstandenen Produkte aus? Wer hat das Copyright?

Geolokalisierung

Im allgemeinen Firmengebrauch geht es bei Geolokalisierung meist um die Auswertung von Fahrzeugdaten. 15 Minuten Aufzeichnung einer Fahrt mit einem modernen Auto genügen, um eine Person eindeutig zu identifizieren.

Leihfahrzeugfirmen zeichnen häufig die gesamte Fahrt auf.

CNIL hat bereits 2023 einen Text zu diesem Thema publiziert. Es genügt üblicherweise den Anfang und das Ende der Fahrt zu kennen.

https://www.cnil.fr/fr/la-geolocalisation-des-vehicules-des-salaries

CNIL hat Geolokalisierungs-Daten als hoch sensibel eingestuft, was bei einer PIA (privacy impact assessment) jedenfalls zu berücksichtigen ist. „Geo findet alles“.

Geolokalisierung kann dann verwendet werden, wenn die Anonymisierung richtig gemacht wird. Für die meisten Zwecke sind auch anonymisierte Daten ausreichend.

Allerdings konnten Geolokalisierungsdaten, die als anonymisiert (d.h. auf ersten Blick ohne Personenbezug) verkauft, wurden von CNIL im eigenen Labor einzelnen Personen zugeordnet werden.

Ein weiteres Problem bei der Beurteilung liegt daran, dass nicht nur die Autohersteller Daten bekommen. Sondern auch die Hersteller des Infotainmentsystems, Maintenance, Security, Traffic Management, Telefon etc. und die meisten von diesen ohne irgendeinen Vertrag mit den Besitzer:innen, noch weniger den Fahrer:innen des Autos.

Autoverleihfirmen möchten das Fahrzeug tracken, damit es binnen 24 Stunden gefunden werden kann. Diebstahlsverhinderung ist aber nicht Teil des Mietvertrages. Zustimmung funktioniert hier nicht, obwohl sie notwendig wäre.

Wer könnte die Zustimmung geben? Sicher nicht die Verleihfirma.

Satelliten

Der Eigentümer des Satelliten ist der Provider und unterliegt der Jurisdiktion seines Heimatstaates. Es gibt keine globale Governance.

Es gibt zwei wesentliche Services: Direct to Device und Broadband via Satellite

sat

Die European Space Agency (esa) unterliegt nicht der DSGVO, sie hat eine eigene Datenschutz-Regelung: https://esamultimedia.esa.int/docs/LEX-L/ESA_Principles_of_PDP_Rules_of_Procedure_for_DPSA_and_Policy.pdf

Cyber Resilience Act – CRA

Die Verordnung wurde am 23.10.2024 beschlossen und gilt stufenweise ab dem 11.Juni, 11. September 2026 und komplett ab dem 11.12.2027.

Wer von uns gedacht hat, dass der CRA an einem vorbeigeht, wurde eines Besseren belehrt.

Sobald ich ein Gerät anbiete, das über das Internet gesteuert werden kann, falle ich unter den CRA.

Die Informationsvorschriften für die Nutzer gehen weit über das hinaus, was wir von Datenschutzerklärungen gewohnt sind.

Im Vertrag müssen auch die in DORA, CRA etc. vorgesehene Dokumentationspflicht und die Cybersicherheitsaspekte festgehalten werden.

Wie schon bei anderen Verordnungen wird das Strafausmaß am konzernweiten Umsatz berechnet.

Wie bei vielen Themen der „digitalen Strategie für Europa“ gilt leider auch hier, dass die Unternehmen, die schon gut in allen Themen zur Cybersicherheit aufgestellt sind, keine Probleme haben CRA zu meistern und die, die nicht vorbereitet sind, es wahrscheinlich gar nicht probieren werden – „.. they just stay lost“

Sowohl die DSGVO als auch der CRA kennen Meldepflichten, nur verlangt der CRA eine Meldung in bestimmten Fällen binnen 24 Stunden.

Da noch unklar ist, wie sich die Meldungen an die einzelnen Behörden unterscheiden, es noch keine Richtlinien für die Umsetzung gibt, wir nicht einmal noch die zuständigen Behörden kennen, wird das eine große Herausforderung für Unternehmen.

Cross Border Transfer

Die Probleme der USA die Position der Europäer zu verstehen, wurde von einem Sprecher des US-States Departments of Justice folgendermaßen zusammengefasst: Die USA tun genau dasselbe, das auch die Europäer tun „We protect our national interest.“

Datenschutzerklärung

Vorschlag der CNIL die Datenschutzerklärung auf zwei Dokumente aufzuteilen: eine Kurzversion in einfachen Worten und eine rechtlich korrekt ausformulierte Langversion.

Webtipp: Rechtsberatung mit AI

www.garfield.law

ein Juristisches AI-Service aus dem UK. Eine Antwort in max. 1 ½ Stunden bis zu einem Streitwert von 10.000 Pfund.

Venedig