Kürzlich warnte OpenAI, dass sein KI-Modell ChatGPT von Cyberkriminellen für verschiedene bösartige Aktivitäten missbraucht wird, darunter die Entwicklung von Malware, die Verbreitung von Falschinformationen und Phishing-Angriffe.
Einem neuen Bericht zufolge hat OpenAI seit Anfang 2024 weltweit über 20 betrügerische Aktionen unterbunden, was einen besorgniserregenden Trend des KI-Missbrauchs aufzeigt. Diese Aktivitäten umfassen nicht nur das Debuggen von Malware, sondern auch das Verfassen von Inhalten für gefälschte Social-Media-Konten und das Erstellen überzeugender Phishing-Informationen.
OpenAI erklärt, dass es sein Ziel ist, sicherzustellen, dass diese Tools dem Gemeinwohl dienen, und arbeitet daher daran, den Missbrauch seiner Modelle aufzudecken, zu verhindern und zu bekämpfen. Besonders in diesem Wahljahr betont OpenAI die Wichtigkeit des Aufbaus eines robusten mehrschichtigen Abwehrsystems gegen staatlich verknüpfte Cyberangriffe und verdeckte Einflussnahmeoperationen. Diese Operationen könnten das Modell des Unternehmens für die Verbreitung von Falschinformationen auf Plattformen wie sozialen Medien nutzen.
Der Bericht weist auch darauf hin, dass OpenAI nach dem Bedrohungsbericht vom Mai 2024 weiterhin in verschiedene Aktivitäten eingegriffen hat, darunter das Debuggen von Malware, das Schreiben von Website-Artikeln und das Generieren gefälschter Social-Media-Inhalte. Die Komplexität dieser Aktivitäten variierte von einfachen Content-Generierungsanfragen bis hin zu komplexen mehrstufigen Social-Media-Analysen und Reaktionsaktionen. Ein Fall betraf sogar die Verwendung von KI-generierten Fake News.
Um besser zu verstehen, wie Cyberkriminelle KI einsetzen, hat OpenAI die unterbundenen Aktivitäten analysiert und einige vorläufige Trends identifiziert, die wichtige Informationen für die Diskussion über KI in einem breiteren Bedrohungsfeld liefern können.
OpenAIs Analyse zeigt, dass KI den Verteidigern leistungsstarke Möglichkeiten bietet, verdächtige Aktivitäten zu erkennen und zu analysieren. Obwohl der Untersuchungsprozess immer noch menschliches Urteilsvermögen und Fachwissen erfordert, haben diese neuen Tools OpenAI bei einigen Analyseschritten von Tagen auf Minuten verkürzt. Darüber hinaus nutzen Cyberkriminelle die Modelle von OpenAI oft in der Zwischenphase ihrer Aktivitäten, nachdem sie die grundlegenden Werkzeuge beschafft haben, bevor sie das „Endprodukt“ im Internet veröffentlichen.
Obwohl Cyberkriminelle die Modelle von OpenAI ständig weiterentwickeln und ausprobieren, gibt es derzeit keine Hinweise darauf, dass dies zu wesentlichen Durchbrüchen bei der Erstellung neuer Malware oder beim Aufbau viraler Zielgruppen geführt hat. Tatsächlich haben die von OpenAI in diesem Jahr im Zusammenhang mit Wahlen entdeckten betrügerischen Aktivitäten keine breite Interaktion in sozialen Medien oder anhaltende Aufmerksamkeit hervorgerufen.
Zukünftig wird OpenAI weiterhin mit seinen Geheimdienst-, Ermittlungs-, Sicherheitsforschungs- und Politikteams zusammenarbeiten, um vorherzusagen, wie böswillige Akteure fortschrittliche Modelle für schädliche Aktivitäten nutzen könnten, und entsprechend Strafverfolgungsmaßnahmen zu planen. Sie geben an, die Erkenntnisse mit dem internen Sicherheitsteam zu teilen, mit Interessengruppen zusammenzuarbeiten und mit Branchenkollegen und der Forschungswelt zusammenzuarbeiten, um neuen Risiken zu begegnen und die kollektive Sicherheit und den Schutz zu gewährleisten.
Wichtigste Punkte:
📌 OpenAI hat festgestellt, dass Cyberkriminelle ChatGPT für die Entwicklung von Malware und die Verbreitung von Falschinformationen verwenden.
🔒 Seit Anfang 2024 hat OpenAI über 20 betrügerische Aktionen erfolgreich unterbunden und so die Cybersicherheit geschützt.
🤖 KI-Modelle werden zwar missbraucht, haben aber derzeit die Fähigkeiten von Cyberkriminellen zur Erstellung von Malware nicht wesentlich verbessert.