Ihr habt es sicher schon mitbekommen: Microsoft hat kürzlich eine Sicherheitslücke in seinem Copilot Studio geschlossen. Die Lücke mit der Nummer CVE-2024-38206 hätte es Hackern ermöglicht, sich unbefugten Zugriff auf hochsensible Unternehmensdaten zu verschaffen.
Wie konnte das passieren?
Die Schwachstelle ermöglichte es Angreifern, eine sogenannte Server-Side Request Forgery (SSRF) auszunutzen. Vereinfacht gesagt: Sie konnten den Copilot dazu bringen, Anfragen an interne Systeme zu stellen, als wäre die Anfrage von einer vertrauenswürdigen Quelle innerhalb des Unternehmens gekommen.
Ein genauer Blick auf den Angriff:
Identifizierung der Schwachstelle: Angreifer haben herausgefunden, dass der Copilot die Möglichkeit hatte, HTTP-Anfragen an beliebige URLs zu senden.
Erstellung einer bösartigen Anfrage: Sie haben eine speziell gestaltete HTTP-Anfrage erstellt, die den Copilot dazu veranlasste, eine Anfrage an einen von ihnen kontrollierten Server zu senden.
Datenexfiltration: Der externe Server des Angreifers hat die Anfrage empfangen und verarbeitet. Der Angreifer konnte die Anfrage so manipulieren, dass der Copilot zusätzliche Informationen, wie beispielsweise Session-Cookies oder Authentifizierungs-Token, mitgesendet hat.
Interne Anfragen: Mit diesen gestohlenen Anmeldeinformationen konnte der Angreifer nun den Copilot dazu bringen, Anfragen an interne Systeme zu stellen, als wäre er ein berechtigter Benutzer.
Warum war das Internet die Schwachstelle?
Das Internet diente als Türöffner. Durch die Möglichkeit, externe Anfragen zu stellen, konnten Angreifer den Perimeter des Unternehmensnetzwerks durchbrechen und von außen auf interne Systeme zugreifen. Es war, als hätte man dem Copilot einen Schlüssel gegeben, mit dem er nicht nur die Haustür, sondern auch alle Türen im Haus öffnen konnte.
Was bedeutet das konkret?
Stellen Sie sich vor, der Copilot ist ein Postbote. Normalerweise liefert er nur Briefe an Adressen innerhalb der Stadt. Durch die Schwachstelle konnte man den Postboten jedoch dazu bringen, einen Brief an eine Adresse in einer ganz anderen Stadt zu liefern. Dieser Brief enthielt einen geheimen Schlüssel. Mit diesem Schlüssel konnte man dann in die Stadt zurückkehren und weitere Briefe an beliebige Adressen liefern.
Warum ist das so gefährlich?
Die Folgen einer solchen Sicherheitslücke sind vielfältig und können für Unternehmen verheerend sein.
Identitätsdiebstahl: Hacker könnten sich als Mitarbeiter ausgeben und im Namen des Unternehmens Schaden anrichten.
Erpressung: Unternehmen könnten mit der Veröffentlichung sensibler Daten erpresst werden.
Spionage: Konkurrenten könnten wertvolle Geschäftsinformationen stehlen.
Sind Unternehmensdaten in der Cloud also nicht sicher?
Diese Frage beschäftigt viele Unternehmen. Und ja, die Sicherheitslücke im Copilot Studio zeigt, dass auch in der Cloud nichts zu 100% sicher ist. Aber ist das ein Grund, den Einsatz von KI-Tools wie dem Copilot komplett aufzugeben?
Meiner Meinung nach nicht. Jede Technologie birgt Risiken, und es ist unsere Aufgabe, diese Risiken zu minimieren. Gerade große Anbieter wie Microsoft sind sehr an der Sicherheit Ihrer Dienste interessiert (besser gesagt: das Überleben des Unternehmens ist abhängig von der Sicherheit des eigenen Angebots). Hierdurch werden Sicherheitslücken, die überall auftreten, in der Regel schnell erkannt und behoben.
Was können wir tun?
Bewusstsein schaffen: Wir müssen alle – von den IT-Abteilungen bis zur Geschäftsführung – für die Risiken von KI-Tools sensibilisieren.
Sicherheitsmaßnahmen stärken: Unternehmen müssen ihre Sicherheitsmaßnahmen kontinuierlich überprüfen und anpassen. Dazu gehört auch eine regelmäßige Überprüfung der Konfiguration von KI-Tools.
Regulierungen fordern: Es ist wichtig, klare Regeln für den Umgang mit KI und Daten zu schaffen.
Und jetzt seid ihr gefragt!
Wie schätzt ihr die Risiken von KI-Tools ein? Welche Maßnahmen ergreift ihr, um eure Daten zu schützen?
Comments