Künstliche Intelligenz verändert rasant unseren Alltag und Arbeitswelt – von der privaten Kommunikation bis hin zu sensiblen Unternehmensprozessen. Tools wie OpenAI’s ChatGPT revolutionieren die Art und Weise, wie wir Informationen verarbeiten und interagieren. Doch KI wird ihre Risiken, insbesondere für den Datenschutz, so schnell nicht los. Aktuelle Ereignisse rund um versehentlich öffentlich gewordene ChatGPT-Konversationen und die Einführung von GPT-5 machen deutlich: Wer KI nutzt, muss ihre Funktionsweise verstehen und die Gefahren kennen. Nur mit KI-Kompetenz lassen sich personenbezogene Daten, Geschäftsgeheimnisse und vertrauliche Informationen wirksam schützen.
Versehentliche Offenlegung von ChatGPT-Konversationen
Vor Kurzem wurde bekannt, dass private ChatGPT-Konversationen im Internet öffentlich abrufbar und sogar von Google indexiert waren. Dies geschah nicht durch eine Fehlfunktion oder einen Leak im herkömmlichen Sinne, sondern primär durch ein Missverständnis einer Sharing-Funktion. Nutzer, die ihre Gespräche mit Freunden, Familie oder Kollegen teilen wollten, hatten die Möglichkeit, einen öffentlichen Link zu erstellen. Eine oft missverstandene Option namens „Make this chat discoverable“ oder auf Deutsch „Mache diesen Chat auffindbar“. Viele Nutzer setzten diesen Haken in der Annahme, dies sei notwendig, damit der Link zum Teilen funktioniert, machten den Inhalt ihrer Gespräche damit jedoch frei für Suchmaschinen zugänglich.
Infolgedessen tauchten tausende ursprünglich private Gespräche in Suchergebnissen auf, darunter teils hochsensible Inhalte wie persönliche Erfahrungen mit Sucht, Missbrauch, psychischen Erkrankungen oder Gewalt und Sexualität. Obwohl die Nutzer in den geteilten Chats als „anonym“ gekennzeichnet waren, bestand die Gefahr, dass sie sich durch die preisgegebenen persönlichen Informationen identifizierbar machten. Viele der betroffenen Personen dürften zutiefst beunruhigt gewesen sein, als sie entdeckten, dass ihre privaten Interaktionen öffentlich zugänglich waren.
OpenAIs Reaktion
OpenAI reagierte schnell auf die aufkommenden Bedenken. Dane Stuckey, der Chief Information Security Officer (CISO) von OpenAI, gab auf X bekannt, dass die Funktion, die es Nutzern erlaubte, ihre Konversationen für Suchmaschinen auffindbar zu machen, umgehend entfernt wurde. Stuckey bezeichnete diese Funktion als „kurzlebiges Experiment“, das ursprünglich dazu dienen sollte, nützliche Konversationen leichter auffindbar zu machen. Jedoch habe die Funktion zu viele Möglichkeiten für versehentliche Veröffentlichungen geschaffen. OpenAI arbeitet zudem daran, die bereits indexierten Inhalte aus den relevanten Suchmaschinen zu entfernen.
GPT-5: Neuerungen in Leistung und Sicherheit
Parallel zu diesen Ereignissen hat OpenAI am 7. August 2025 sein neuestes KI-System, GPT-5, vorgestellt. Dem Unternehmen zufolge vereint es die Fähigkeiten früherer Systeme in einer adaptiven Architektur, die je nach Aufgabe zwischen einem schnellen Standardmodell und dem tiefergehenden GPT-5 Thinking wechselt. OpenAI berichtet, dass GPT-5 deutliche Verbesserungen in Programmierung, Mathematik, Textverarbeitung, Gesundheit und visueller Wahrnehmung erzielt und in Benchmarks wie auch im Praxiseinsatz präzisere Ergebnisse liefert. Besonders hervorgehoben wird die spürbare Reduzierung sogenannter „Halluzinationen“, die bessere Selbsteinschätzung der eigenen Grenzen sowie eine transparentere Kommunikation mit den Nutzern.
Laut OpenAI ersetzt der neue Sicherheitsansatz „Safe Completions“ die frühere Praxis pauschaler Ablehnungen. Der neue „Safe Completions“-Ansatz konzentriert sich auf die Sicherheit des Outputs anstatt nur auf die Absicht des Inputs. Statt Anfragen mit unklarer Absicht oder potenziell riskanten Inhalten (sogenannten „Dual-Use“-Themen) sofort zu blockieren, soll GPT-5 möglichst hilfreiche, aber sichere Antworten geben – notfalls abstrahiert oder mit einer Begründung, warum eine Ablehnung erfolgt. Das Unternehmen betont, dass dies die Nutzbarkeit verbessere und gleichzeitig Missbrauch verhindere.
Kritische Stimmen zu GPT-5
Neben OpenAIs eigenen Erfolgsdarstellungen gibt es auch Kritik vom KI-Forscher und Neurowissenschaftler Gary Marcus. Er bezeichnet GPT-5 als „überfällig, überhyped und unterwältigend“ und bemängelt eine holprige Einführung ohne nachhaltige Stärkung von OpenAIs Marktposition. Während CEO Sam Altman das Modell mit einem „Experten auf PhD-Niveau“ vergleicht, sehen Marcus und viele andere dies deutlich skeptischer.
Marcus hatte bereits vorab prognostiziert, dass grundlegende Schwächen großer Sprachmodelle fortbestehen würden – etwa Halluzinationen, Regelverstöße selbst bei einfachen Aufgaben oder fehlende Fortschritte beim visuellen Verständnis. Erste Tests nach Veröffentlichung hätten diese Einschätzung bestätigt. Kern seiner Kritik ist die mangelnde Generalisierungsfähigkeit von LLMs, die er seit Jahrzehnten als zentrale Schwachstelle betont. Er verweist auf eine Studie der Arizona State University, wonach „Chain of Thought“-Reasoning nur innerhalb der Trainingsdaten funktioniert und darüber hinaus zusammenbricht.
Fazit
Die jüngsten Vorfälle rund um die versehentliche Veröffentlichung von ChatGPT-Konversationen sind eine deutliche Mahnung an die Notwendigkeit konsequenter Datenschutzpraktiken im Umgang mit KI. OpenAI hat zwar schnell reagiert und die betreffende Funktion entfernt, doch es zeigt, wie leicht Missverständnisse zu ungewollten Preisgaben sensibler Informationen führen können. Die Veröffentlichung von GPT-5 markiert indes einen signifikanten Fortschritt in der KI-Entwicklung, zumindest aus OpenAIs Sicht. Insbesondere die Bemühungen, Halluzinationen zu reduzieren, die Ehrlichkeit des Modells zu verbessern und einen neuen, differenzierteren Sicherheitsansatz („Safe Completions“) zu implementieren, sind positive Schritte in Richtung vertrauenswürdigerer und sichererer KI-Systeme.
Dennoch bleibt festzuhalten, dass bei aller Intelligenz und den verbesserten Sicherheitsfunktionen der KI die primäre Verantwortung für den Schutz persönlicher Daten stets beim Nutzer liegt. KI-Kompetenz – das Wissen um Funktionsweise, Grenzen und Gefahren – ist entscheidend, um KI privat und im Unternehmen sicher einzusetzen. Das gilt besonders beim Umgang mit personenbezogenen Daten oder vertraulichen Geschäftsinformationen. Datenschutz ist und bleibt eine ständige Aufgabe, die sowohl von den Entwicklern als auch von den Nutzern ernst genommen werden muss.
Der „KI-Beauftragte“ –
Ihre Lösung für rechtssichere KI-Compliance
Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt.
