M365 Copilot: Audit-Log-Sicherheitslücke nach einem Jahr behoben

Die Nutzung von Künstlicher Intelligenz wie Microsoft 365 Copilot etabliert sich zunehmend in Unternehmen und verspricht Effizienzgewinne. Gleichzeitig entstehen neue sicherheits- und datenschutzrechtliche Risiken. Eine Microsoft bekannte Sicherheitslücke in M365 Copilot, die verfälschte Audit-Log-Dateien ermöglichte, blieb über Monate hinweg bestehen. Diese Schwachstelle im Zusammenwirken mit anderen Zero-Click KI-Angriffstechniken verdeutlichen, dass selbst alltägliche Interaktionen mit KI-Assistenten Auswirkungen auf Nachvollziehbarkeit, Datensicherheit und Compliance haben können. Unternehmen müssen daher bestehende Kontroll- und Prüfmechanismen kritisch hinterfragen.

Audit-Logs und Jailbreaks

Audit-Logs sind ein zentrales Mittel zur Erfüllung von Nachweis- und Dokumentationspflichten, da sie systematisch Zugriffe auf Daten und Dokumente erfassen. Werden diese Protokolle unvollständig geführt, entstehen erhebliche Risiken für Sicherheitsanalysen und regulatorische Verfahren. Parallel dazu stellen Jailbreaks bzw. Prompt Injections eine spezifische Angriffsmethode auf KI-Systeme dar. Sie nutzen die Doppelfunktion von Eingaben als Information und Anweisung, wodurch Modelle von vorgesehenen Nutzungsgrenzen abweichen können. Für Unternehmen bedeutet dies, dass neben technischen Schutzmaßnahmen auch rechtliche Folgen unbefugter Datenverarbeitung in den Blick genommen werden müssen.

Compliance-Risiken der Audit-Log-Lücke

Die Audit-Log-Schwachstelle ermöglichte es, M365 Copilot so zu instruieren, dass Dateizugriffe nicht in den Protokollen erfasst wurden. Es genügte, Copilot anzuweisen, eine Datei zusammenzufassen, ohne einen Link zum Quelldokument bereitzustellen, was zu einem leeren oder unvollständigen Audit-Log-Eintrag führte. Dies schuf ein signifikantes Sicherheitsrisiko. Ein böswilliger Insider oder ein Angreifer konnte auf sensible Unternehmensdaten zugreifen, ohne eine Spur zu hinterlassen. Dies wiederum hätte beispielsweise den unbemerkten Diebstahl von Informationen vor dem Verlassen eines Unternehmens ermöglicht. Die hieraus resultierende mangelnde Nachvollziehbarkeit solcher Zugriffe hätte gravierende Compliance-Auswirkungen und kann die Beweisführung in rechtlichen Auseinandersetzungen empfindlich schwächen.

Microsofts Reaktion

Zack Korman meldete die Lücke nach eigenen Angaben im Juli 2025 dem Microsoft Security Response Center (MSRC), welches die Schwachstelle als „wichtig“ einstufte. Obwohl das Problem bereits im August 2024 von Michael Bargury auf der Black Hat Konferenz öffentlich thematisiert wurde, erfolgte die Fehlerbehebung erst ein Jahr später, im August 2025. Microsoft traf die Entscheidung, weder eine CVE-ID zu veröffentlichen noch Kunden oder die breite Öffentlichkeit zu informieren. Begründet wurde dies laut Korman damit, dass die Behebung automatisch per Update erfolgte und keine manuellen Schritte der Nutzer erforderlich waren. Korman bezeichnete Microsofts Entscheidung als einen „riesigen Nachteil“ für die Kunden. Er betonte, dass diese MSRC-Politik bezüglich CVE-IDs für Cloud-Produkte Microsofts eigenen zuvor öffentlich gemachten Aussagen widerspreche. Gegenüber Heise erklärte Microsoft lediglich: „Wir sind dem Forscher dankbar, dass er uns seine Ergebnisse mitgeteilt hat, damit wir das Problem zum Schutz unserer Kunden angehen können.“

Weitere Sicherheitslücken bei Copilot

Neben der Audit-Log-Lücke wurde bereits im Juni 2025 eine weitere kritische Zero-Click-KI-Schwachstelle in Microsoft 365 Copilot bekannt. Diese ermöglichte es Angreifern, automatisch sensible und proprietäre Informationen aus dem Kontext von M365 Copilot zu exfiltrieren, allein durch das Versenden einer E-Mail an das Opfer – komplett ohne Zutun des Benutzers. Sie umging Microsofts Schutzmechanismen gegen Prompt Injection, indem schädliche Anweisungen geschickt in harmlos erscheinende Texte eingebettet wurden. Dieser Vorfall unterstreicht eine grundlegende Designschwäche vieler KI-Systeme, bei der die Trennung zwischen vertrauenswürdigen und nicht-vertrauenswürdigen Informationen für Large Language Models (LLMs) eine anhaltende Herausforderung darstellt. Auch hier erklärte Microsoft, das Problem behoben zu haben und dass keine Kunden betroffen gewesen seien.

Zwischen Sicherheitsversprechen und Misstrauen

Die jüngsten Vorfälle um M365 Copilot reihen sich in eine längere Geschichte von Datenschutz- und Sicherheitskontroversen bei Microsoft ein. So hat der Europäische Datenschutzbeauftragte im Juli 2025 erst nach intensiven Nachbesserungen bei der Nutzung von Microsoft 365 durch die EU-Kommission das Durchsetzungsverfahren eingestellt. Parallel dazu sorgte das neue Outlook für Kritik. Zudem bleibt die Frage nach dem Zugriff von US-Behörden auf europäische Daten ungelöst. Selbst Microsoft räumt ein, hier keine vollständige Sicherheit bieten zu können, auch wenn Investitionen in die EU-Cloud-Infrastruktur und Initiativen wie die „EU Data Boundary“ Transparenz suggerieren sollen. Kritiker sehen diese Versprechen jedoch als unverbindlich und lückenhaft.

Handlungsempfehlungen für Unternehmen

Für Unternehmen ergibt sich daraus Handlungsbedarf. Eine regelmäßige und gründliche Sicherheitsbewertung aller eingesetzten KI-Tools ist unabdingbar. Ergänzend sind Datenschutz-Folgenabschätzungen bei Systemen, die Zugriff auf personenbezogene Daten haben, erforderlich. Es bedarf spezifischer Schutzmechanismen für LLMs und KI-Agenten, beispielsweise durch Echtzeit-Überwachung von sogenannten Scope Violations. Sicherheitsstrategien müssen kontinuierlich an die besonderen Risiken KI-basierter Systeme angepasst und überarbeitet werden. Dies erfordert eine enge Zusammenarbeit von Fachabteilungen, IT und Datenschutzbeauftragten. Verlassen Sie sich nicht blind auf KI-Anbieter. Stattdessen sind Transparenz, proaktive Kontrolle sowie technische und rechtliche Weitsicht entscheidend für den sicheren und verantwortungsvollen Einsatz von KI. KI-Technologien sind in rasanter Entwicklung und Jailbreaks stellen kein leicht lösbares Problem dar. Vielmehr erfordern sie eine fortlaufende Erkennungs- und Reaktionsstrategie.

Fazit

Diese jüngsten Vorfälle sind ein dringender Weckruf für alle Unternehmen, die KI-Technologien wie Copilot nutzen oder deren Einsatz planen. Die M365 Copilot Audit-Log-Sicherheitslücke demonstriert, dass KI-Systeme aufgrund ihrer Architektur neuartige und tiefgreifende Angriffsflächen bieten, die mit klassischen Sicherheitsmechanismen oft nicht ausreichend abgedeckt werden können.

Unsere international tätigen Rechtsanwälte sowie Datenschutz-, Compliance- und Informationssicherheitsbeauftragte unterstützen Ihr Unternehmen mit maßgeschneiderten Lösungen – vom StartUp bis zum Großkonzern.

Der „KI-Beauftragte“

Ihre Lösung für rechtssichere KI-Compliance

Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt. 

Jetzt unverbindliches Angebot anfordern