Urheberrechtsklage & Speicheranordnung gegen OpenAI

Eine aktuelle gerichtliche Anordnung in den USA zwingt OpenAI dazu, Nutzerdaten aufzubewahren, selbst wenn diese eigentlich gelöscht werden sollten. Diese Speicheranordnung gegen OpenAI wirft dringende Fragen zum Datenschutz, Urheberrecht und zur Zukunft der Künstlichen Intelligenz (KI) auf. Auch der Europäische Gerichtshof (EuGH) und das Oberlandesgericht Hamburg befassen sich in laufenden Verfahren mit der Nutzung urheberrechtlich geschützter Inhalte im KI-Kontext. Die Speicheranordnung sollte Unternehmen dazu mahnen, Datenschutz und Compliance beim Einsatz von KI-Tools konsequent zu verankern.

Die Vorwürfe gegen OpenAI

Im Zentrum steht eine Urheberrechtsklage der New York Times (NYT) gegen OpenAI und Microsoft. Die Klage behauptet, dass Millionen von NYT-Artikeln unzulässig zum Training von kommerziellen generativen KI-Modellen verwendet wurden, die nun direkt mit dem traditionellen Journalismus konkurrieren.

OpenAI verteidigt sich mit dem Argument des „Fair Use“: Die Nutzung der Inhalte diene einem neuen, transformierenden Zweck und sei daher urheberrechtlich zulässig. Die Times bestreitet dies entschieden. Es sei nicht „transformativ“, Inhalte unbezahlt zu nutzen, um substitutive KI-Produkte zu entwickeln. Zudem könnten LLMs Inhalte aus dem KI-Training wiedergeben – teils nahezu wortgleich – und so sogar die Paywall der Times umgehen.

Speicheranordnung gegen OpenAI

Im Zuge dieses Rechtsstreits erging nun eine gerichtliche Anordnung an OpenAI, alle Ausgabeprotokolldaten zu bewahren und zu separieren, die ansonsten gelöscht würden. Dies umfasst explizit Chats von Nutzern, die ihre Konversationen aktiv gelöscht oder den „Temporary Chat“-Modus verwendet haben. Dies dient der möglichen Beweisführung im Prozess, obwohl betroffene Inhalte ursprünglich als gelöscht galten.

Reaktion von OpenAI

OpenAI bezeichnete die Anordnung in einer Pressemeldung als unverhältnismäßig und kündigte Rechtsmittel an. Brad Lightcap, COO von Open AI, argumentiert, dass die Speicherung gelöschter Daten gegen unternehmenseigene Datenschutzrichtlinien und Branchenstandards verstoße. Die betroffenen Daten werden nun zwar unter „Legal Hold“ isoliert gespeichert, sind nur einem kleinen juristischen Team zugänglich und betreffen nicht Unternehmenskunden mit „Zero Data Retention“-Vereinbarungen. Aktuell hat OpenAI gegen diese Anordnung Berufung beim Richter des Bezirksgerichts eingelegt.

Folgen für Nutzerdaten

Für Nutzer bedeutet die Anordnung ein ernstes Datenschutzrisiko. Selbst Konversationen, die in einem bewusst temporären Modus stattfanden, können nun dauerhaft gespeichert und potenziell offengelegt werden. Gerade vulnerable Gruppen, die KI-Tools für sensible Fragen nutzen, könnten ungewollt exponiert werden. Dies offenbart die Schwäche rein vertraglicher Löschzusagen und unterstreicht den Bedarf an gesetzlich durchsetzbaren Datenschutzrechten – besonders in Situationen, in denen Dritte durch Klagen Zugriff auf Nutzerdaten erlangen könnten.

Urheberrechtsverfahren in der EU

Auch in der EU steht die Nutzung urheberrechtlich geschützter Inhalte im KI-Kontext vor Gericht. Der EuGH befasst sich in der Rechtssache C-250/25 gegen Google mit der Frage, ob KI-generierte Texte eine öffentliche Wiedergabe darstellen und ob Trainingsprozesse urheberrechtlich lizenzpflichtig sind. Sollte der EuGH zu dieser Einschätzung gelangen, müssten Anbieter wie Google oder OpenAI künftig umfangreiche Lizenzvereinbarungen abschließen – ein potenzieller Wendepunkt für die KI-Industrie in Europa.

Das Landgericht Hamburg (Urt. v. 27.09.2024, Az. 310 O 227/23) hat die Klage eines Fotografen gegen LAION e.V., dessen Datensatz LAION-5B ohne Zustimmung urheberrechtlich geschützte Fotos enthalten soll, abgewiesen. Das Verfahren befindet sich nach Meldung des BvD e.V. in der Berufung vor dem OLG Hamburg – mit einem Verhandlungstermin im Oktober 2025.

Relevanz für Unternehmen

Für Unternehmen gilt: „Löschen“ ist nicht immer endgültig. Ohne Zero-Data-Retention-Vereinbarung können auch vermeintlich gelöschte Eingaben dauerhaft gespeichert werden – etwa durch gerichtliche Anordnungen wie im Fall OpenAI. Nach Angaben von OpenAI sind ChatGPT Enterprise- und ChatGPT Edu-Konten sowie API-Nutzer mit einer Zero-Data-Retention-Vereinbarung nicht von der Anordnung betroffen.

Die Verfahren in den USA und vor dem EuGH zeigen, dass Training und Output generativer KI urheberrechtlich relevant sein könnten. Unternehmen müssen daher prüfen, ob ihr KI-Anbieter rechtssichere Datensätze nutzt und intern Vorkehrungen zur Überprüfung von KI-Outputs treffen. Zudem haften Unternehmen indirekt für fehlerhafte Inhalte („Halluzinationen“). Die Pflicht zur redaktionellen Kontrolle bleibt beim Nutzer.

Unternehmen sollten Sorgen um Datenlöschung und Urheberrecht nicht dem Zufall überlassen. Wir begleiten Sie mit maßgeschneiderter Beratung – von Vertragsprüfungen mit KI-Anbietern über Datenschutz-Folgenabschätzungen bis hin zur Entwicklung unternehmensspezifischer Risikomanagement-Strategien und Governance-Strukturen.

Fazit

Die Speicheranordnung gegen OpenAI verdeutlicht, wie fragil digitale Selbstbestimmung im Kontext von KI derzeit ist. Weder Plattformrichtlinien noch technische Funktionen wie „Delete“ bieten verlässlichen Schutz, wenn juristische Interessen ins Spiel kommen. Gleichzeitig zeigen die Urheberrechtsprozesse in den USA und der EU, dass die rechtlichen Rahmenbedingungen der KI-Nutzung noch längst nicht geklärt sind. Für Nutzer und Unternehmen entsteht ein regulatorisches Vakuum, das nach klarer Gesetzgebung und grenzüberschreitender Transparenz verlangt.

Der „KI-Beauftragte“

Ihre Lösung für rechtssichere KI-Compliance

Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt. 

Jetzt unverbindliches Angebot anfordern