OpenAI hat eine bedeutende Neuerung im Bereich der Künstlichen Intelligenz vorgestellt: den ChatGPT Agenten. Damit bringt OpenAI ein leistungsstarkes Tool auf den Markt, das Aufgaben automatisiert, Informationen eigenständig verarbeitet und mit Online-Diensten interagieren kann. Dieses System markiert laut OpenAI-CEO Sam Altman ein „neues Level der KI-Fähigkeiten“. Gleichzeitig warnt Altman jedoch eindringlich vor einem unkritischen Einsatz mit sensiblen Daten. Denn gerade im Kontext Unternehmensdaten und personenbezogenen Daten wirft ChatGPT Agent auch ernste Datenschutzrisiken auf.
Was ist der ChatGPT Agent?
Der ChatGPT Agent ist eine erweiterte Funktion, die es ChatGPT ermöglicht, mehrstufige Online-Aufgaben proaktiv zu übernehmen. Dies reicht von der Web-Recherche über die Analyse von Daten bis zur Erstellung von Präsentationen. Das System vereint die Stärken früherer Entwicklungen wie „Operator“ für die Interaktion mit Webseiten und „Deep Research“ für die Informationssynthese, die zuvor nicht kombiniert werden konnten. Es kann über Konnektoren auf Anwendungen wie Gmail oder GitHub zugreifen. Er operiert dabei in einer virtuellen Computerumgebung, die den Kontext über verschiedene Werkzeuge hinweg beibehält. OpenAI hebt hervor, dass das zugrunde liegende Modell in verschiedenen Benchmarks, wie Data-Science-Aufgaben oder für Tabellenkalkulationen, neue Bestleistungen erziele. In einigen Bereichen soll er sogar die menschliche Leistung übertreffen.
Altman warnt vor unsachgemäßem Gebrauch
Trotz der beeindruckenden Leistungsfähigkeit und des Potenzials, das „die Zukunft ausprobieren“ lässt, betont Sam Altman auf X, dass der ChatGPT Agent als experimentelles System einzustufen ist. Daher solle er nicht für Aufgaben mit hohem Risiko oder mit vielen persönlichen Informationen genutzt werden. Die größte Gefahr bestehe demnach in der „Prompt Injection“. Dabei könnten böswillige Akteure versuchen, den KI-Agenten der Nutzer durch versteckte Anweisungen auf Webseiten oder in E-Mails zu manipulieren. Mit diesem Vorgehen könne der Agent private Informationen preisgeben oder unerwünschte Aktionen ausführen. Altman gibt hierfür ein Beispiel. Eine zu offene Anweisung wie „Schau dir meine über Nacht eingegangenen E-Mails an und erledige alles Notwendige, ohne Nachfragen zu stellen“, könnte dazu führen, dass schädliche Inhalte aus einer E-Mail den Agenten dazu verleiten, sensible Daten zu verraten.
Datenschutz- und Sicherheitsvorkehrungen
OpenAI hat nach eigenen Angaben umfangreiche Schutzmaßnahmen und Warnungen in den ChatGPT Agenten integriert, von robustem Training über Systemsicherungen bis hin zu Benutzerkontrollen. Dazu gehören die explizite Bestätigung durch den Nutzer vor folgenreichen Aktionen und die Verweigerung hochriskanter Aufgaben wie Banküberweisungen. Für kritische Aufgaben, wie das Versenden von E-Mails, ist ein aktiver „Watch Mode“ erforderlich. Darüber hinaus wird dem Agenten für den Zugriff auf Webseiten ein visueller Browser zur Verfügung gestellt. Dieser kann Screenshots der Oberfläche machen, um mit ihr zu interagieren. Nach OpenAI’s Angaben werden aber keine Screenshots mit Passwörtern oder sensible Daten erfasst, wenn der Nutzer selbst die Kontrolle über den Browser übernimmt.
Empfehlungen für den verantwortungsvollen Einsatz
OpenAI empfiehlt dringend, dem Agenten nur den minimal benötigten Zugriff zu gewähren, um Datenschutz- und Sicherheitsrisiken zu reduzieren. Nutzer sollten keine Passwörter oder private Informationen direkt in Nachrichten eingeben und besonders vorsichtig bei der Auswahl der Konnektoren sein. Es wird geraten, unpräzise oder sehr offene Anweisungen wie „Bitte schauen Sie sich meine E-Mails an und ergreifen Sie einfach alle Maßnahmen, um die Diskussionen voranzubringen“ zu vermeiden. Wenn etwas Verdächtiges bemerkt wird, sollte die Ausführung einer Aufgabe sofort gestoppt werden. Unternehmen sollten zudem, wie bereits bei Deep Research Connectors betont, die volle Verantwortung für den Schutz personenbezogener Daten und Geschäftsgeheimnisse tragen. Damit sollte eine entsprechende rechtliche und technische Prüfungen einhergehen, darunter Datenschutz-Folgenabschätzungen und klare KI-Governance-Strukturen. Mitarbeitende sollten mithilfe von regelmäßigen Schulungsmaßnahmen über die stetig entwickelnden Datenschutz- und IT-Sicherheitsrisiken aufgeklärt werden. Ohne ein angemessenes Maß an KI-Kompetenz ist die Nutzung von KI im Unternehmen eine Gefahrenquelle.
Fazit
Der ChatGPT Agent bietet zweifellos eine neue Dimension an Möglichkeiten für die Automatisierung komplexer digitaler Aufgaben. Die Integration in unternehmensinterne Prozesse verspricht erhebliche Effizienzgewinne. Dennoch unterstreichen die ausdrücklichen Warnungen Sam Altmans und die erhöhten Sicherheitsmaßnahmen OpenAIs die Notwendigkeit eines höchstmöglichen Maßes an Vorsicht und einer risikobewussten Implementierung. Um das Potenzial dieser von ChatGPT Agent sicher zu nutzen und Datenschutzrisiken zu vermeiden, ist ein proaktives und strukturiertes Risikomanagement unerlässlich.
Der „KI-Beauftragte“ –
Ihre Lösung für rechtssichere KI-Compliance
Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt.
