Im digitalen Zeitalter gewinnt die Softwaresicherheit zunehmend an Bedeutung. Um Schwachstellen in Software aufzudecken, haben Wissenschaftler*innen Deep-Learning-basierte Erkennungssysteme entwickelt. Diese Systeme fungieren als „Sicherheitsbeamte“ für Software und können potenzielle Sicherheitsrisiken schnell identifizieren. Doch kürzlich hat eine Studie namens EaTVul diese „Sicherheitsbeamten“ überrascht.

Stellen Sie sich vor, jemand könnte Sicherheitsgeräte dazu bringen, gefährliche Gegenstände nicht zu erkennen – wie beängstigend wäre das? Forschende von CSIRO Data61, der Swinburne University of Technology und der australischen DST Group haben EaTVul vorgestellt, eine innovative Umgehungsstrategie. EaTVul zielt darauf ab, die Anfälligkeit von Deep-Learning-basierten Erkennungssystemen gegenüber Angriffen aufzuzeigen.

Es kann fehlerhaften Code geschickt modifizieren, sodass das Erkennungssystem ihn für normal hält. Das ist, als würde man gefährlichen Gegenständen einen „Unsichtbarkeitsmantel“ verpassen und so die „scharfen Augen“ der Sicherheitskontrolle austricksen.

EaTVul wurde streng getestet, und die Erfolgsrate ist erstaunlich. Bei Codeabschnitten mit mehr als zwei Zeilen liegt die Erfolgsrate über 83 %, bei Codeabschnitten mit vier Zeilen sogar bei 100 %! In verschiedenen Experimenten manipulierte EaTVul kontinuierlich Modellvorhersagen und enthüllte schwerwiegende Schwachstellen der aktuellen Erkennungssysteme.

image.png

Die Funktionsweise von EaTVul ist recht interessant.

Zuerst verwendet es eine Methode namens Support Vector Machine (SVM), um kritische, nicht fehlerhafte Beispiele zu finden – ähnlich wie das Auffinden der am leichtesten zu verwechselnden Fragen in einer Prüfung. Dann verwendet es eine Technik namens „Aufmerksamkeitsmechanismus“, um die entscheidenden Merkmale zu identifizieren, die die Entscheidung des Erkennungssystems beeinflussen – ähnlich wie das Auffinden der wichtigsten Punkte, auf die die Prüfer achten.

image.png

Anschließend nutzt es ChatGPT, den KI-Chatbot, um irreführende Daten zu generieren – ähnlich wie das Erfinden von scheinbar richtigen, aber fehlerhaften Antworten. Schließlich verwendet es einen Fuzzy-Genetischen Algorithmus, um diese Daten zu optimieren und sicherzustellen, dass sie das Erkennungssystem maximal täuschen.

Die Ergebnisse dieser Forschung sind ein Weckruf für die Softwaresicherheit. Sie zeigen, dass selbst die fortschrittlichsten Erkennungssysteme getäuscht werden können. Es ist eine Erinnerung daran, dass selbst die strengsten Sicherheitssysteme Schwachstellen aufweisen können. Daher müssen wir diese Systeme kontinuierlich verbessern und verstärken, ähnlich wie wir Sicherheitsausrüstung ständig aktualisieren müssen, um mit immer raffinierteren „Hackern“ fertig zu werden.

论文地址: https://arxiv.org/abs/2407.19216

Wichtige Punkte:

🚨 EaTVul ist eine neue Angriffsmethode, die Deep-Learning-basierte Systeme zur Erkennung von Softwareschwachstellen effektiv täuschen kann, mit einer Erfolgsrate von 83 % – 100 %.

🔍 EaTVul nutzt Support Vector Machines, Aufmerksamkeitsmechanismen, ChatGPT und Fuzzy-Genetische Algorithmen, um fehlerhaften Code geschickt zu modifizieren und so der Erkennung zu entgehen.

⚠️ Diese Studie deckt die Anfälligkeit aktueller Systeme zur Erkennung von Softwareschwachstellen auf und fordert die Entwicklung robusterer Abwehrmechanismen gegen solche Angriffe.