Künstliche Intelligenz (KI) verspricht Effizienz, Innovation und eine neue Art des Informationszugangs. Doch es gibt auch Schattenseiten. KI-Modelle wie ChatGPT generieren nicht nur sachlich falsche Antworten, sondern sollen auch Geschichten erfinden, die gravierende Folgen für betroffene Personen haben können. Besonders brisant ist ein Fall, in dem ChatGPT einen Menschen fälschlich zu einem Mörder erklärt haben soll. Dies ist nicht nur ein ethisches Problem, sondern stellt laut einer Beschwerde der Bürgerrechtsorganisation noyb vom 20.03.2025 auch einen klaren Verstoß gegen den Datenschutz dar.
Das Problem der KI-Halluzinationen: Zwischen harmlosen Fehlern und Verleumdung
KI-gestützte Chatbots basieren auf Wahrscheinlichkeitsmodellen: Sie sagen nicht die Wahrheit, sondern das wahrscheinlichste nächste Wort in einer Antwort voraus. Dies führt dazu, dass sie oft plausible, aber faktisch falsche Aussagen generieren. Solche Halluzinationen können von harmlosen Ungenauigkeiten bis hin zu schweren Rufschädigungen reichen. Medienberichte dokumentieren immer wieder, wie ChatGPT erfundene Korruptionsvorwürfe, sexuelle Belästigungen oder gar Mordtaten in die Welt setzt. In einer ersten Beschwerde gegen OpenAI hatte noyb ebenfalls behauptet, dass ChatGPT falsche Informationen beinhalte, die man nach Aussage von OpenAI nicht korrigieren könne. Damit schloss sich noyb einer Reihe von Datenschutzvorwürfen gegen ChatGPT an.
Fall aus Norwegen
Ein besonders drastisches Beispiel betreffe laut einer Pressemitteilung von noyb einen norwegischen Nutzer, der testen wollte, ob ChatGPT Informationen über ihn gespeichert hat. Das Modell habe daraufhin eine vollständig erfundene Geschichte konstruiert, in der der Betroffene als verurteilter Mörder seiner eigenen Kinder dargestellt worden sei. Hierfür sei er laut ChatGPT zu 21 Jahren Haft verurteilt worden. Diese Falschinformationen sollen sogar reale Elemente seines Privatlebens enthalten haben. Dazu gehöre etwa die korrekte Anzahl und das Geschlecht seiner Kinder sowie den Namen seiner Heimatstadt.
Datenrichtigkeit nach der DSGVO
Die Datenschutzgrundverordnung (DSGVO) verpflichtet datenschutzrechtlich Verantwortliche, dafür zu sorgen, dass personenbezogene Daten richtig und aktuell sind. Nach diesem Grundprinzip der Richtigkeit aus Art. 5 Abs. 1 lit. d DSGVO sind alle Daten, die im Hinblick auf die Zwecke ihrer Verarbeitung unrichtig sind, unverzüglich zu löschen oder zu berichtigen. Dies gilt nicht nur für gespeicherte Daten, sondern auch für solche, die ein Unternehmen prozessiert und ausgibt.
Datenschutzverstoß durch OpenAI
OpenAI verstoße laut der Datenschutzbeschwerde von noyb gegen diesen Grundsatz, indem es falsche Informationen produziere, ohne den Betroffenen eine realistische Möglichkeit zur Korrektur einzuräumen. Ein kleiner Haftungsausschluss, der darauf hinweist, dass das Modell Fehler machen kann, genüge nicht, um sich dieser Verantwortung zu entziehen. Die DSGVO sehe einen klaren Anspruch auf Richtigkeit vor, den OpenAI jedoch nicht umsetze und auch nicht durch Haftungsausschlüsse umgehen könne. Stattdessen argumentiere das Unternehmen, es könne keine bereits generierten Daten korrigieren, sondern lediglich gewisse Antworten sperren. Damit bleibe der ursprüngliche Fehler jedoch bestehen. Datenschutzjuristin bei noyb, Kleanthi Sardeli, weißt insofern darauf hin, dass „KI-Unternehmen […] nicht einfach falsche Informationen vor den Nutzer:innen „verstecken“ [können], während sie diese intern weiterhin verarbeiten“.
Fehlende Transparenz und unzureichendes Auskunftsrecht
Ein weiteres Problem stelle OpenAIs mangelnde Transparenz dar. Selbst wenn Betroffene erkennen, dass falsche Informationen über sie generiert wurden, bliebe oft unklar, welche Daten das Modell tatsächlich verarbeitet und ob diese jemals vollständig gelöscht werden. OpenAI erfülle im Übrigen nicht ordnungsgemäß das Auskunftsrecht nach Art. 15 DSGVO, sodass Nutzer keine Möglichkeit hätten, die über sie gespeicherten oder verarbeiteten Daten einzusehen und nachzuvollziehen.
Beschwerde gegen OpenAI: noyb fordert Konsequenzen
Angesichts dieser Verstöße hat noyb diesbezüglich nun bereits die zweite offizielle Beschwerde bei der norwegischen Datenschutzbehörde erhoben. Die NGO verlangt, dass keine vergleichbaren Falschinformationen mehr generiert werden und eine Löschung der diffamierenden Inhalte stattfindet. Darüber hinaus plädiert noyb für die Verhängung eines empfindlichen Bußgeldes gegen OpenAI, um zukünftige Verstöße zu verhindern.
Fazit
Die DSGVO fordert eine klare Einhaltung von Grundsätzen wie der Datenrichtigkeit und dem Recht auf Berichtigung. Anderenfalls kann es schnell dazukommen, dass eine künstliche Intelligenz wie ChatGPT einen Menschen fälschlich zu einem Mörder erklärt. Solange KI-Modelle weiterhin falsche und potenziell rufschädigende Inhalte generieren, bleibt auch der Gesetzgeber gefordert, passende Regelungen zu schaffen.