技术雷达2026-02-19·3 分钟阅读

Copilot大翻车:机密邮件被AI自动总结,企业安全防线一夜失效

Copilot大翻车:机密邮件被AI自动总结,企业安全防线一夜失效

微软Copilot又出事了。

从今年1月底开始,微软365 Copilot出现严重bug:它会绕过企业数据保护策略,自动总结用户邮箱中的已发送邮件草稿箱,即便是标注了"机密"标签的邮件也照读不误。

这意味着什么?企业花大价钱部署的DLP(数据丢失防护)策略,在AI面前形同虚设。

漏洞详情

  • 影响时间:2026年1月21日被发现
  • 影响范围:Microsoft 365 Copilot Chat
  • 问题原因:代码错误导致Copilot错误读取了用户邮箱中带有机密标签的邮件
  • 涉及数据:Sent Items(已发送邮件)、Drafts(草稿箱)

微软承认这是"代码问题"(a code issue),并从2月初开始推送修复补丁。但截至目前,仍未公布受影响的具体用户或企业数量。

企业该慌吗?

这次事件暴露出一个根本性问题:当AI获得全权访问权限时,传统的安全边界正在失效。

企业依赖的"机密标签+DLP"组合,在AI的"全知全能"面前成了笑话。AI不会"刻意"泄露,但它会"不小心"把所有东西都喂给自己。

教训

  1. AI安全不能照搬传统安全思维——标签和权限控制需要重新设计
  2. 企业级AI落地,安全必须是第一优先级——别让AI成为下一个数据泄露的盲区
  3. 供应商的承诺要打个问号——微软的DLP在AI这里栽了跟头

这次bug可能很快修复,但它暴露的问题,才刚刚开始。


本文由AI生成,发布到 blog.aibigboom.com