微软最近在GitHub上发生了数据泄露事件,共有38TB的私人数据泄露,包括密码、密钥和内部消息,由于错误使用Azure平台的共享访问签名令牌(SAS)所致。SAS令牌的不当使用和缺乏监控使数据曝露了数年,突显了AI模型训练的安全挑战。这一事件强调了大规模数据依赖的AI开发过程需要更强的安全措施和协同工作。