Laut einem aktuellen Gartner-Bericht stellt die Anwendung von Künstlicher Intelligenz (KI) bei Cyberangriffen seit drei Quartalen in Folge das größte Risiko für Unternehmen dar.

Die Beratungsfirma befragte zwischen Juli und September 286 leitende Angestellte im Bereich Risiko und Audit. Das Ergebnis: 80 % der Befragten äußerten große Besorgnis über KI-gestützte Angriffe. Dieser Trend ist nicht überraschend, da Belege für einen Anstieg von KI-gestützten Cyberangriffen vorliegen.

Hacker, Cyberangriff, Code schreiben

Bildquelle: Das Bild wurde mit KI erstellt, Lizenzgeber: Midjourney

Der Bericht listet weitere neue Risiken auf, darunter KI-gestützte Desinformation, zunehmende politische Polarisierung und ein Missverhältnis bei der personellen Ausstattung von Organisationen. Angreifer nutzen KI zum Schreiben von Schadsoftware und zur Erstellung von Phishing-E-Mails. So wurde beispielsweise im Juni bei HP eine Malware-Verbreitungskampagne gestoppt, bei der der Verdacht besteht, dass das Skript mit Hilfe von generativer KI geschrieben wurde. Die Struktur des Skripts war klar und jedes Kommando war kommentiert – etwas, das bei handgeschriebenen Skripten eher ungewöhnlich ist.

Daten des Sicherheitsunternehmens Vipre zeigen, dass die Anzahl der Business-E-Mail-Compromise-Angriffe (BEC) im zweiten Quartal 2023 im Vergleich zum Vorjahreszeitraum um 20 % gestiegen ist. Fast die Hälfte dieser Angriffe wurde durch KI generiert. CEOs, HR-Mitarbeiter und IT-Personal waren die Hauptziele. Usman Choudhary, Chief Product and Technology Officer bei Vipre, erklärt, dass Kriminelle komplexe KI-Algorithmen einsetzen, um überzeugende Phishing-E-Mails zu erstellen, die den Ton und Stil legitimer Kommunikation imitieren.

Ein Bericht von Imperva Threat Research zeigt außerdem, dass Einzelhandels-Websites zwischen April und September täglich durchschnittlich 569.884 KI-gestützte Angriffe erlitten haben. Die Forscher weisen darauf hin, dass Tools wie ChatGPT, Claude und Gemini sowie Bots, die speziell Webseiten-Daten zum Trainieren großer Sprachmodelle sammeln, für Distributed-Denial-of-Service-Angriffe (DDoS) und den Missbrauch von Geschäftslogiken eingesetzt werden.

Immer mehr ethische Hacker geben die Nutzung generativer KI zu, der Anteil stieg von 64 % im Vorjahr auf 77 %. Diese Forscher geben an, dass KI bei Multi-Channel-Angriffen, Fault-Injection-Angriffen und automatisierten Angriffen helfen kann, um mehrere Geräte gleichzeitig anzugreifen. Wenn also „die Guten“ KI als nützlich empfinden, werden „die Bösen“ diese Technologie ebenfalls nutzen.

Der Aufstieg der KI ist nicht überraschend, da sie die Hürden für Cyberkriminalität senkt und es auch technisch weniger versierten Kriminellen ermöglicht, Deepfakes zu erstellen, Netzwerkeinbrüche zu scannen und Aufklärungsarbeit zu betreiben. Forscher der ETH Zürich haben kürzlich ein Modell entwickelt, das Google reCAPTCHA v2 zu 100 % lösen kann. Analysten des Sicherheitsunternehmens Radware prognostizierten bereits Anfang des Jahres, dass private GPT-Modelle für böswillige Zwecke verwendet werden und die Anzahl der Zero-Day-Exploits und Deepfake-Betrügereien zunehmen würde.

Gartner weist auch darauf hin, dass die Abhängigkeit von IT-Anbietern erstmals auf die Agenda der Führungskräfte gelangt ist. Zachary Ginsburg, Senior Director of Gartner's Risk & Audit Practice, erklärt, dass Kunden, die stark von einem einzigen Anbieter abhängig sind, einem höheren Risiko ausgesetzt sein könnten. Wie das Beispiel von dStrike im Juli zeigt, bei dem weltweit 8,5 Millionen Windows-Geräte lahmgelegt wurden und Notdienste, Flughäfen und Strafverfolgungsbehörden stark betroffen waren.