Die sichere und datenschutzkonforme Nutzung von Künstlicher Intelligenz (KI) – insbesondere Großer Sprachmodelle (LLMs) – erfordert umfassende KI-Kompetenz auf allen Ebenen eines Unternehmens. Der Europäische Datenschutzausschuss (EDSA) unterstützt Organisationen dabei mit seinem Support Pool of Experts (SPE), der praxisorientierte Leitlinien und Schulungsmaterialien zu KI-Systemen bereitstellt. Ziel ist es, alle Beteiligten – von der Entwicklung bis zur Geschäftsführung – in die Lage zu versetzen, die Risiken von KI-Systemen zu verstehen, zu bewerten und wirksam zu steuern.
Diese KI-Kompetenz ist nicht nur praktisch notwendig, sondern wird auch rechtlich eingefordert: Artikel 4 der KI-Verordnung (KI-VO) verpflichtet Unternehmen seit Februar 2025 dazu, sicherzustellen, dass alle am Lebenszyklus eines KI-Systems beteiligten Personen über angemessenes Wissen und Schulungen verfügen – ein klarer Auftrag zum unternehmensweiten Kompetenzaufbau.
Der Support Pool of Experts (SPE) des EDSA
Im Rahmen seiner Strategie für 2021-2023 hat der Europäische Datenschutzausschuss (EDSA) den Support Pool of Experts (SPE) ins Leben gerufen. Das Hauptziel des SPE ist es, die nationalen Datenschutzbehörden dabei zu unterstützen, ihre Durchsetzungskapazitäten zu erhöhen. Hierfür werden gemeinsame Tools entwickelt und ein Zugang zu einem breiten Expertenpool geschaffen. Die Experten im SPE verfügen über juristische und/oder technische Expertise in neuen Technologien und Informationssicherheit, einschließlich spezialisierter Kenntnisse in Bereichen wie Künstliche Intelligenz, Datenschutz-Folgenabschätzungen (DPIAs) und Privacy-Enhancing Technologies.
Die nun vorliegenden Veröffentlichungen des EDSA sind das aktuelle Ergebnis der SPE-Initiative und bieten wichtige Anleitungen für alle Akteure im Bereich KI-Systeme und Datenschutz.
Technische Schulung für sichere KI-Systeme
Die erste maßgebliche Veröffentlichung des EDSA ist ein Schulungslehrplan mit dem Titel „Grundlagen sicherer KI-Systeme mit personenbezogenen Daten“. Dieser SPE-Bericht, der am 5. Juni 2025 veröffentlicht wurde, ist speziell als Trainingscurriculum zum Thema KI und Datenschutz konzipiert.
Er richtet sich primär an Cybersicherheitsexperten, Entwickler und Anwender von KI-Systemen. Der Lehrplan soll ihnen helfen, ihre technischen Fähigkeiten zu verbessern, um fortschrittliche, KI-gestützte und datenbasierte Systeme zu entwickeln und zu implementieren. Dabei liegt ein besonderer Fokus auf der Integration von Datenschutz- und Privatsphäre-Prinzipien mit grundlegenden KI-Ethik-Prinzipien während der KI-Entwicklung. Das Projekt wurde auf Anfrage der griechischen Datenschutzbehörde (HDPA) gestartet und von dem externen Experten Dr. Enrico Glerean durchgeführt.
Trainingscurriculum zum Thema KI und Datenschutz
Der Lehrplan behandelt grundlegende Konzepte der Künstlichen Intelligenz, des Datenschutzes und der Cybersicherheit. Er geht detailliert auf Risikobewertung in KI und Datenschutz ein und integriert ethische Überlegungen. Ein zentraler Teil widmet sich dem praktischen Management personenbezogener Daten in KI-Systemen, einschließlich der Bildung von „Rohdaten“, Vorverarbeitung, Merkmalsextraktion und guten Datenmanagement-Praktiken. Besonderes Augenmerk liegt auf Privacy Enhancing Technologies (PETs), wie Differential Privacy, Federated Learning, homomorpher Verschlüsselung und Secure Multiparty Computation. Auch die sichere Codeentwicklung für KI-Systeme und das Testen und Validieren von KI-Systemen gegen Sicherheitsbedrohungen und Angriffe sind wichtige Module. Schließlich behandelt der Lehrplan die Bereitstellung und Überwachung von KI-Systemen sowie praktische Anleitungen zur Prüfung (Auditierung) von KI-Systemen anhand verschiedener Checklisten. Er deckt auch fortgeschrittene Anwendungsfälle wie Retrieval-Augmented Generation (RAG) und Named Entity Recognition (NER) ab.
Warum Unternehmen diesen Lehrplan jetzt kennen sollten
Für technische Teams, die KI-Systeme entwickeln oder implementieren, ist dieser Lehrplan von unschätzbarem Wert. Er bietet eine konkrete Anleitung, wie Datenschutz by Design und Datenschutz by Default technisch umgesetzt werden können. Unternehmen sollten in KI-Kompetenzschulungen investieren, die auf diesen Grundlagen basieren, um sicherzustellen, dass ihre Entwickler und Cybersicherheitsexperten die neuesten Best Practices für den Schutz personenbezogener Daten in KI-Systemen beherrschen. Unser KI-Beauftragter bei KINAST unterstützt Sie bei der Planung und Umsetzung zielgerichteter Schulungsmaßnahmen.
Der „KI-Beauftragte“ –
Ihre Lösung für rechtssichere KI-Compliance
Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt.

Juristisches Training für DSBs: KI & Datenschutzrecht
Parallel zur technischen Schulung hat der EDSA einen weiteren Schulungslehrplan zu KI-Systemen mit dem Titel „Law & Compliance in AI Security & Data Protection“ erarbeitet. Dieses Training des SPE richtet sich speziell an Datenschutzbeauftragte (DSBs). Es soll deren aktuelle Bedürfnisse im Bereich KI-Sicherheit und Datenschutz adressieren und Kompetenzlücken schließen.
Der Lehrplan bietet eine umfassende Grundlage zu rechtlichen und Compliance-Fragen im Bereich der KI-Sicherheit und des Schutzes personenbezogener Daten. Er vertieft das Verständnis durch praktische Fallstudien, die sich hauptsächlich auf die Datenschutz-Grundverordnung (DSGVO), die KI-VO und den Data Act konzentrieren. Wie die erste Veröffentlichung wurde auch dieses Projekt auf Anfrage der griechischen Datenschutzbehörde (HDPA) initiiert und von dem externen Experten Dr. Marco Almada durchgeführt.
Modulstruktur
Das Training ist in drei Hauptteile gegliedert, die sich jeweils einem bestimmten Thema widmen:
Teil I: Grundlegende Konzepte – Einführung in die grundlegenden Konzepte der KI und deren Auswirkungen auf das Datenschutzrecht sowie Cybersicherheitsaspekte der KI.
Teil II: Der Lebenszyklus eines KI-Systems – Diskussion von Risiken, die in verschiedenen Phasen des Lebenszyklus eines KI-basierten Tools auftreten, von der ersten Entscheidung bis zum Ende seines Betriebs. Dies beinhaltet Phasen wie Konzeption, Design und Entwicklung, Verifizierung und Validierung, Bereitstellung sowie Betrieb und Überwachung.
Teil III: Fortgeschrittene Themen in KI und Datenschutz – Eine eingehende Behandlung ausgewählter Themen für Organisationen, die KI-Systeme gemäß den Anforderungen des Datenschutzrechts nutzen wollen. Dazu gehören Fairness und Rechenschaftspflicht, Transparenz gegenüber Stakeholdern, Regulierung durch Design sowie Datenschutz und Large Language Models. Im Modul Datenschutz und LLMs werden Chancen und Risiken von LLMs beleuchtet und Schutzmaßnahmen während der Modellentwicklung und -nutzung aufzeigt. Es betont die Schwierigkeit der Verantwortungszuschreibung zwischen LLM-Anbietern und -Nutzern.
Unerlässlich für Datenschutzbeauftragte
Dieser vom EDSA vorgeschlagene Lehrplan ist für jeden Datenschutzbeauftragten (DSB) unerlässlich, der mit KI-Systemen in Berührung kommt. Die umfassende Behandlung rechtlicher und Compliance-Fragen, insbesondere im Hinblick auf die DSGVO und die KI-VO, befähigt DSBs, die Einhaltung der Vorschriften in ihrer Organisation sicherzustellen. Die darin enthaltenen Fallstudien bieten praktische Anleitungen für die Bewältigung komplexer Szenarien. Eine gezielte Ausbildung von Datenschutzbeauftragten zu KI-Experten ist eine entscheidende Investition in die rechtliche Absicherung von KI-Projekten.
SPE-Risikomanagement: Datenschutz bei LLMs systematisch absichern
Die dritte wichtige Veröffentlichung des SPE ist der Bericht „AI Privacy Risks & Mitigations Large Language Models“. Dieser stellt eine umfassende Risikomanagement-Methodik für LLM-Systeme vor. Er umfasst eine Reihe praktischer Maßnahmen zur Abschwächung der üblichen Datenschutzrisiken in LLM-Systemen. Er soll den Datenschutzbehörden ein umfassendes Verständnis und aktuelle Informationen über die Funktionsweise von LLM-Systemen und die damit verbundenen Risiken vermitteln. Das Projekt wurde von der externen Expertin Isabel Barbera auf Anfrage der kroatischen Datenschutzbehörde durchgeführt.
Bedeutung des KI-Lebenszyklus & verschiedener LLM-Zugangsmodelle
Der Bericht betont die Bedeutung des KI-Lebenszyklus (Inception, Design & Development, Verification & Validation, Deployment, Operation & Monitoring, Re-evaluation, Retirement) für das Risikomanagement. Risiken können in jeder Phase entstehen. Von der Datenerfassung (z.B. sensible Daten in Trainingssätzen) bis zur Inferenz (z.B. versehentliche Offenlegung privater Informationen) und Feedback-Schleifen. Er untersucht verschiedene Zugangsmodelle zu LLMs z.B. LLM as a Service, Off-the-Shelf LLM, selbstentwickelte LLMs, agentische KI-Systeme. Des Weiteren die damit verbundenen spezifischen Datenschutzrisiken und -herausforderungen, wie die geringe Transparenz bei geschlossenen Modellen oder das Risiko der Exposition personenbezogener Daten bei offenen Modellen.
Risikokontrolle und Minderungsmaßnahmen
Um die Risiken effektiv zu kontrollieren und Minderungsmaßnahmen entgegenzuwirken werden zuvor Kriterien zur Identifizierung, Schätzung und Bewertung von Datenschutzrisiken vorgestellt. Diese sind aus der DSGVO, dem EUDPR und der EU-Charta abgeleitet. Dazu gehören die Verarbeitung sensibler Daten, groß angelegte Verarbeitungen und der unrechtmäßige Umgang mit Daten. Erläutert die Rolle der Überwachung und Sammlung von Nachweisen zur Unterstützung der Risikobewertung.
Auf Grundlage dessen bietet der SPE-Bericht praktische Minderungsmaßnahmen für gängige Datenschutzrisiken in LLM-Systemen. Dazu gehören die Implementierung klarer Nutzerrichtlinien, die Verschlüsselung von Ein- und Ausgaben, die Minimierung der Datenprotokollierung und die Definition klarer Aufbewahrungsrichtlinien. Der Bericht empfiehlt, Filter als zusätzliche Schutzschichten für Eingaben und Ausgaben zu integrieren, um Datenschutz-, Sicherheits- und Inhaltsstandards durchzusetzen.
Rollen & Verantwortung nach KI-VO und DSGVO
Das Dokument beleuchtet die Rollen von Anbietern und Nutzern (Deployern) von LLM-Systemen. Dies beinhaltet auch deren Verantwortlichkeiten gemäß KI-Verordnung und DSGVO in Szenarien geteilter Verantwortung. Insgesamt wird die Notwendigkeit einer fortlaufenden Überwachung implementierter Maßnahmen und effektiver Vorfallreaktionsmechanismen betont.
Anwendungsbeispiele
Der Bericht enthält detaillierte Anwendungsbeispiele zur Anwendung des Risikomanagementrahmens in realen Szenarien. Darunter ein virtueller Assistent (Chatbot) für Kundenanfragen, ein LLM-System zur Überwachung und Unterstützung des Schülerfortschritts und ein KI-Assistent für Reise- und Terminplanung.
Warum ein KI-Risikomanagement für Unternehmen?
Jedes Unternehmen, das LLMs einsetzt oder in seine Produkte integriert, muss diesen Bericht sorgfältig studieren. Die detaillierte Risikomanagement-Methodik und die praktischen Minderungsmaßnahmen sind essenziell, um die Datenschutz-Compliance sicherzustellen. Die Einführung eines KI-Beauftragten oder eines interdisziplinären KI-Teams ist ein entscheidender Schritt zur Umsetzung datenschutzkonformer KI-Projekte. Wir unterstützen Sie dabei mit praxisorientierter Beratung – von der Vertragsprüfung mit LLM-Anbietern über Datenschutz-Folgenabschätzungen (DPIAs) bis hin zur Entwicklung unternehmensspezifischer Risikomanagement-Strategien.
Fazit
Die Veröffentlichungen des EDSA Support Pool of Experts zu KI-Systemen verdeutlichen die Bemühungen die Entwicklung und den Einsatz von Künstlicher Intelligenz mit den hohen Anforderungen des europäischen Datenschutzes in Einklang zu bringen. Mit den praktischen Instrumenten an der Hand können Unternehmen die damit verbundenen Herausforderungen meistern. Sie ergänzen die kürzlich veröffentlichten FAQs zur KI-Kompetenz der EU-Kommission.
Für Unternehmen ist dies ein klarer Aufruf zum Handeln:
- Proaktive Compliance: Warten Sie nicht auf die volle Wirksamkeit aller Bestimmungen der KI-Verordnung. Die Grundlagen und Risiken sind bereits bekannt und müssen angegangen werden.
- Kompetenzaufbau: Investieren Sie in die Weiterbildung Ihrer Teams – sowohl auf technischer Ebene (Entwickler, Cybersicherheitsexperten), auf Nutzerebene (bei Anwenung durch Mitarbeitende) als auch auf rechtlicher Ebene (Datenschutzbeauftragte). Der KI-Beauftragte wird zu einer Schlüsselrolle für die verantwortungsvolle Implementierung von KI.
- Risikomanagement implementieren: Entwickeln und implementieren Sie robuste Risikomanagement-Methoden speziell für den Einsatz von KI-Systemen, insbesondere LLMs, um Datenschutzrisiken systematisch zu identifizieren, zu bewerten und zu mindern.
- Transparenz und Dokumentation: Sorgen Sie für eine umfassende Dokumentation Ihrer KI-Systeme und Datenverarbeitungsprozesse, um Rechenschaftspflicht und Transparenz zu gewährleisten.
Der KINAST „KI-Beauftragte“ hilft Ihrem Unternehmen dabei, diese komplexen Anforderungen zu verstehen und umzusetzen. Ob es um die Implementierung von Risikomanagement-Frameworks, die Schulung Ihrer Mitarbeiter, die Durchführung von Datenschutz-Folgenabschätzungen (DPIA) für KI-Systeme oder die vertragliche Gestaltung der Zusammenarbeit mit KI-Anbietern geht – wir unterstützen Sie dabei, Ihre KI-Projekte rechtssicher und datenschutzkonform zu gestalten. Sprechen Sie uns an, um Ihre Organisation zukunftssicher aufzustellen.
Der „KI-Beauftragte“ –
Ihre Lösung für rechtssichere KI-Compliance
Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt.
