Forscher der Universität Sheffield haben eine besorgniserregende Entdeckung gemacht: KI-Tools wie ChatGPT können manipuliert werden, um schädlichen Code zu generieren, der die Datenbank-Sicherheit gefährdet. Mehrere kommerzielle KI-Tools weisen Sicherheitslücken auf, deren erfolgreiche Ausnutzung zum Verlust vertraulicher Datenbankinformationen und zur Störung des Datenbankbetriebs führen kann.
Die Forscher warnen eindringlich vor den potenziellen Risiken und betonen die Notwendigkeit, neue Gemeinschaften zu bilden, um sicherzustellen, dass die Strategien zur Cybersicherheit mit den sich ständig weiterentwickelnden Bedrohungen Schritt halten. Einige Unternehmen haben bereits Maßnahmen ergriffen, um die Sicherheitslücken zu schließen, doch das Problem erfordert weiterhin Aufmerksamkeit.