Microsoft hat kürzlich ein Datenleck auf GitHub bekannt gegeben, bei dem 38 TB an privaten Daten, darunter Passwörter, Schlüssel und interne Nachrichten, offengelegt wurden. Ursache war die fehlerhafte Verwendung von Shared Access Signature Tokens (SAS) auf der Azure-Plattform.
Die unsachgemäße Verwendung von SAS-Tokens und mangelnde Überwachung führten dazu, dass die Daten über mehrere Jahre hinweg zugänglich waren. Dies unterstreicht die Sicherheitsherausforderungen beim Training von KI-Modellen.
Dieser Vorfall verdeutlicht die Notwendigkeit stärkerer Sicherheitsmaßnahmen und einer verbesserten Zusammenarbeit bei der Entwicklung von KI, die auf großen Datenmengen basiert.