Microsoft Exposes Internal Data in GitHub Upload, But Says No Customer Info Leaked
主题:Microsoft AI研究团队在GitHub上上传训练数据时不慎暴露了个人数据。此事件揭示了安全漏洞和数据泄漏的问题。
重要内容:
- Microsoft AI研究团队意外泄漏了38000GB的个人数据,其中包括微软员工的密码、密钥和内部团队的消息。
- 数据泄露的原因是研究人员意外地将备份链接包含在上传的文件中,以便其他研究人员可以下载预训练模型。
- 尽管此次泄露事件没有曝光用户数据或其他内部服务,但不正确配置的SAS令牌可能导致数据泄漏和隐私问题。微软已修复该问题,并发布了使用SAS令牌的最佳实践指南。