Kürzlich wurde auf der No Hat Sicherheitskonferenz in Italien von Protect AI, einem Unternehmen mit Sitz in Seattle, ein Open-Source-Tool namens Vulnhuntr vorgestellt. Das Ziel dieses Tools ist klar definiert: Mithilfe von Anthropic's Claude AI-Modell sollen Entwickler Null-Day-Schwachstellen in Python-Code identifizieren.
Die Funktionsweise von Vulnhuntr unterscheidet sich erheblich von herkömmlichen statischen Code-Analyse-Tools. Das Tool übergibt nicht einfach Code-Segmente an die KI zur Analyse, sondern sucht automatisch nach Projektdateien, die möglicherweise Eingaben von externen Benutzern verarbeiten.
Anschließend analysiert Claude AI diese potenziellen Schwachstellen eingehend. Dabei fordert Claude kontinuierlich Funktionen, Klassen und Variablen im Code an, um die gesamte Aufrufkette von der Benutzereingabe bis zur Serverausgabe vollständig nachzuverfolgen. Diese Methode reduziert effektiv falsch positive und falsch negative Ergebnisse, da die gesamte Aufrufkette gelesen wird und nicht nur kleine Code-Abschnitte analysiert werden.
Nach der Optimierung mit den Best Practices für die Verwendung von Claude AI wurde die Leistung von Vulnhuntr erheblich verbessert. Obwohl auch die Verwendung von OpenAI's GPT-4 unterstützt wird, sind die Ergebnisse nicht so gut wie mit Claude. McInerney erklärte, dass Vulnhuntr bisher in einigen großen Open-Source-Python-Projekten über ein Dutzend Null-Day-Schwachstellen gefunden hat, die zuvor von den Projektbetreuern nicht entdeckt oder gemeldet wurden.
Derzeit konzentriert sich Vulnhuntr auf sieben Arten von aus der Ferne ausnutzbaren Schwachstellen, darunter beliebige Dateibeschreibung, Datei-, Server-Side-Request-Forgery-, Cross-Site-Scripting-, Direct-Object-Reference-, SQL-Injection- und Remote-Code-Execution-Schwachstellen. Zu den gescannten Projekten gehören mehrere beliebte Open-Source-Projekte auf GitHub mit Zehntausenden von Sternen.
Vulnhuntr hat jedoch auch einige Einschränkungen. Es unterstützt derzeit nur Python-Code und ist von einem Python-Statischen-Analysator abhängig. Bei der Codeanalyse generiert die KI einen Konfidenzwert, der dem Benutzer hilft, die Gültigkeit der Schwachstelle einzuschätzen. Obwohl das Tool bei der Erkennung von Null-Day-Schwachstellen bereits beachtliche Fortschritte erzielt hat, weist McInerney darauf hin, dass die von der KI generierten Ergebnisse nicht immer konsistent sind, daher können mehrere Durchläufe erforderlich sein.
Vulnhuntr wird voraussichtlich auf GitHub veröffentlicht werden, und Protect AI ermutigt weitere Sicherheitsforscher, dieses Tool zum Testen in Open-Source-Projekten zu verwenden.
Wichtigste Punkte:
🌟 Vulnhuntr ist ein Open-Source-Tool, das mit Claude AI Entwicklern hilft, Null-Day-Schwachstellen in Python-Code zu finden.
🛠️ Die Funktionsweise des Tools unterscheidet sich von der statischen Analyse und kann die gesamte Aufrufkette von der Benutzereingabe bis zur Serverausgabe verfolgen.
🚀 Vulnhuntr hat bereits mehrere Null-Day-Schwachstellen in großen Open-Source-Projekten gefunden und wird auf GitHub für Entwickler zur Verfügung gestellt.