Cybersicherheit: Microsoft stellt KI-gestützte Malware-Software vor

Die Bedrohungslage im digitalen Raum entwickelt sich rasant. Künstliche Intelligenz (KI) verändert dabei die Spielregeln – sowohl auf Seiten der Angreifer als auch in der Verteidigung. Während Kriminelle KI einsetzen, um ihre Angriffe raffinierter und schwerer erkennbar zu machen, wird sie für Sicherheitsexperten zum unverzichtbaren Werkzeug, um komplexe Bedrohungen frühzeitig zu erkennen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) und der TÜV-Verband warnen deutsche Unternehmen bereits vor einem „trügerischen Sicherheitsgefühl“. In diesem Spannungsfeld setzt Microsoft mit Project Ire einen innovativen Meilenstein. Ein autonomer KI-Agent, der Malware-Analysen automatisiert und damit den Sicherheitssektor revolutionieren könnte.

Autonome KI-Analyse statt manueller Reverse Engineering-Marathons

Project Ire ist das Ergebnis einer Zusammenarbeit von Microsoft Research, Microsoft Defender Research sowie Microsoft Discovery & Quantum. Das System kann Softwaredateien ohne menschliche Unterstützung analysieren und klassifizieren – selbst ohne jegliche Metadaten oder Hinweise auf Ursprung und Zweck der Datei. Es nutzt modernste Sprachmodelle in Kombination mit Reverse-Engineering-Tools wie angr und Ghidra. Der Analyseprozess beginnt mit einer Triage, um Dateityp, Struktur und auffällige Bereiche zu identifizieren. Anschließend rekonstruiert das System den Kontrollfluss der Software und führt eine iterative Funktionsanalyse durch. Über eine API greift das Large Language Model (LLM) auf spezialisierte Tools zu, um Schlüsselfunktionen zu erkennen und zu bewerten. Alle Ergebnisse werden in einer „Beweiskette“ dokumentiert. Das ist ein prüfbarer Pfad, der auch bei Fehlklassifikationen für gezielte Systemverbesserungen genutzt werden kann.

Vielversprechende Testergebnisse & geplanter Rollout

Die ersten Praxistests zeigen, nach Microsofts Angaben wie effektiv Project Ire arbeitet. Bei der Analyse von öffentlich zugänglichen Windows-Treibern lag die Präzision bei 0,98 und der Recall bei 0,83 – ein sehr niedriger Fehlalarmanteil von nur 2 %. Project Ire war zudem der erste „Reverse Engineer“ bei Microsoft, der einen Conviction Case gegen eine Advanced Persistent Threat (APT)-Malware aufbauen konnte. Auch im Härtetest mit knapp 4.000 besonders schwierigen „Hard-Target“-Dateien erreiche das System eine hohe Präzision von 0,89 bei nur 4 % Fehlalarmrate. Diese Ergebnisse können eine erhebliche Entlastung für Sicherheitsteams bedeuten, die oft unter Fehlalarmen und inkonsistenter Bedrohungsprüfung leiden, so Microsoft. Die Integration des Project Ire-Prototyps als „Binary Analyzer“ in Microsoft Defender ist bereits geplant.

KI als Schutzschild und Risiko zugleich

Der Einsatz von KI in der Cyberabwehr eröffnet neue Möglichkeiten, birgt jedoch auch Gefahren. Microsofts Security Copilot etwa kann riesige Datenmengen in Echtzeit analysieren und auf Bedrohungen reagieren. Gleichzeitig nutzen Angreifer KI, um personalisierte Phishing-Mails oder Deepfakes zu erstellen. Die von KI-Systemen ausgegebenen „Pakethalluzinationen“ nutzen Angreifer wiederum, um getarnte Schadsoftware zu verbreiten. Die bei Microsoft selbst entdeckte „EchoLeak“-Sicherheitslücke in Microsoft 365 Copilot, ermöglichte sogar einen Zero-Click-Angriff auf den KI-Agenten.

Compliance als Pflicht und Chance

Aus Sicht der Unternehmens-Compliance haben KI-gestützte Verteidigungssysteme wie Project Ire großes Potenzial, müssen aber sorgfältig in bestehende Compliance-Strukturen eingebettet werden. Mit der NIS-2-Richtlinie und dem Cyber Resilience Act verschärft die EU die Anforderungen an Unternehmen, insbesondere in Bezug auf technische und organisatorische Maßnahmen (TOM). KI ist nicht nur ein potenzielles Werkzeug für Angreifer, sondern auch ein unverzichtbarer Bestandteil einer robusten Cybersicherheit. Eine klare KI-Strategie für die Cybersicherheit wird zum ausschlaggebenden Faktor für den Schutz von Daten und Geschäftswerten.

Fazit

Project Ire verdeutlicht, wie KI gezielt eingesetzt werden kann, um Cyberbedrohungen nicht nur zu erkennen, sondern ihnen aktiv einen Schritt voraus zu sein. Für Unternehmen bringen solche neuen KI-Tools die Chance IT-Sicherheitsrisiken besser zu verstehen und Compliance-Anforderungen zu erfüllen.

Doch wer in KI-gestützte Sicherheit investiert, muss nicht nur technische, sondern auch rechtliche und organisatorische Fragen klären. Die Integration neuer KI-Tools in Ihr Unternehmen kann enorme Effizienzgewinne bringen. Doch gleichzeitig müssen auch rechtliche Vorgaben berücksichtigt werden. Unser „KI-Beauftragter“ hilft Ihnen, neue KI-Tools rechtssicher einzuführen, indem wir die rechtlichen Implikationen prüfen und sicherstellen, dass alle Datenschutz- und Compliance-Anforderungen erfüllt werden.

Der „KI-Beauftragte“

Ihre Lösung für rechtssichere KI-Compliance

Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt. 

Jetzt unverbindliches Angebot anfordern