In einer Zeit, in der digitale Sicherheit zunehmend an Bedeutung gewinnt, stehen Unternehmen und Organisationen weltweit vor der Herausforderung, ihre Netzwerke und Datensysteme vor Cyberangriffen zu schützen. Eine neue Dimension dieser Bedrohungslage ergibt sich aus dem Einsatz generativer Künstlicher Intelligenz (KI) durch Hacker. Microsoft, einer der Giganten im Bereich der Informationstechnologie, hat in Zusammenarbeit mit OpenAI kürzlich Untersuchungen zu Vorfällen veröffentlicht, die den Einsatz solcher Technologien durch staatlich unterstützte Hackergruppen aufzeigen.
Generative KI-Modelle, insbesondere Großmodelle für Sprache (Large Language Models, LLMs), werden zunehmend von Cyberkriminellen eingesetzt, um komplexe Angriffsszenarien zu entwickeln und durchzuführen. Microsofts Initiative "Copilot for Security" nutzt KI-Tools, um genau diese Art von Bedrohungen zu identifizieren und zu bekämpfen. Diese Tools sind darauf ausgelegt, schädliche KI-Aktivitäten zu erkennen und Gegenmaßnahmen zu ermöglichen.
Die von Microsoft identifizierten Hackergruppen, die generative KI einsetzen, sind in verschiedenen Ländern ansässig, darunter Russland, Nordkorea, Iran und China. Eine dieser Gruppen, bekannt als Forest Blizzard und mit der russischen GRU-Einheit 26165 in Verbindung gebracht, hat laut Microsoft Organisationen ins Visier genommen, die mit den Kriegshandlungen in der Ukraine in Verbindung stehen. Es wird angenommen, dass diese Gruppe LLMs verwendet, um komplexe Kommunikationsprotokolle zu verstehen und zu manipulieren.
Ein weiteres Beispiel für die Verwendung von KI durch Cyberkriminelle ist die Gruppe Salmon Typhoon, die primär US-Verteidigungsunternehmen und Regierungseinrichtungen angreift. Diese in China ansässige Gruppe nutzt LLMs, um Programmierfehler aufzuspüren und technische Dokumente zu übersetzen, was ihre Angriffe effizienter und zielgerichteter macht.
Die Partnerschaft zwischen Microsoft und OpenAI im Bereich der Cybersicherheit ermöglicht es, schnell und effektiv auf bekannte und neu auftauchende Bedrohungsakteure zu reagieren. Microsofts Threat Intelligence Team überwacht dabei mehr als 300 Bedrohungsakteure, darunter nationale Akteure, Ransomware-Gruppen und viele weitere.
Die Verwendung von KI durch Cyberkriminelle stellt eine ernsthafte Herausforderung dar. Sie ermöglicht es Angreifern, ihre Methoden zu verfeinern und Angriffe zu automatisieren. Dies erfordert eine kontinuierliche Weiterentwicklung der Sicherheitsmaßnahmen und die Integration von KI in die Abwehrstrategien. Die Ergebnisse von Microsoft und OpenAI zeigen deutlich, dass der Kampf gegen Cyberkriminalität ein fortlaufender Prozess ist, der ständige Wachsamkeit und Innovation erfordert.
Quellen:
- Tagesschau.de. (2024). Russische Hacker attackieren Microsoft. Verfügbar unter: https://www.tagesschau.de/wirtschaft/unternehmen/microsoft-hacker-emails-100.html
- IT-Business.de. (2023). Generative KI und Ethical Hacking für verantwortungsvollen Fortschritt. Verfügbar unter: https://www.it-business.de/generative-ki-und-ethical-hacking-fuer-verantwortungsvollen-fortschritt-a-ef2c99189f94dea78413386825b4bce6/
- BusinessInsider.de. (2023). Cybersicherheit: KI-Unternehmen lassen Hacker Modelle angreifen. Verfügbar unter: https://www.businessinsider.de/wirtschaft/cybersicherheit-ki-unternehmen-lassen-hacker-modelle-angreifen/
- All-about-security.de. (2023). Inside the Mind of a Hacker: Unwahrscheinlich, dass generative KI menschliche Cybersecurity-Fähigkeiten ersetzt. Verfügbar unter: https://www.all-about-security.de/inside-the-mind-of-a-hacker-unwahrscheinlich-dass-generative-ki-menschliche-cybersecurity-faehigkeiten-ersetzt/