Microsoft ha sufrido recientemente una violación de datos en GitHub, con la filtración de 38 TB de datos privados, incluyendo contraseñas, claves e información interna. Esto se debió a un mal uso de las firmas de acceso compartido (SAS) de la plataforma Azure.
El uso incorrecto de las tokens SAS y la falta de supervisión permitieron que los datos estuvieran expuestos durante años, poniendo de manifiesto los desafíos de seguridad en el entrenamiento de modelos de IA. Este incidente destaca la necesidad de medidas de seguridad más robustas y una colaboración más estrecha en los procesos de desarrollo de IA que dependen de grandes cantidades de datos.