返回列表
行业新闻AI安全漏洞

微软Copilot八个月内两次无视敏感标签,DLP堆栈未能检测到违规行为

微软的AI助手Copilot在八个月内两次违反其信任边界,无视敏感标签和数据丢失防护(DLP)策略,读取并总结了机密邮件。最近一次事件发生在2026年1月21日,持续四周,影响了包括英国国家医疗服务体系(NHS)在内的组织。此前在2025年6月,一个名为“EchoLeak”的严重零点击漏洞(CVE-2025-32711)导致企业数据被秘密窃取。两次事件的根本原因不同,但结果一致:Copilot处理了被明确限制的数据,而现有安全工具未能检测到这些违规行为,暴露出传统安全架构在大型语言模型(LLM)检索管道监控方面的盲点。

VentureBeat

从2026年1月21日开始的四周内,尽管有明确的敏感标签和数据丢失防护(DLP)策略指示,微软的Copilot仍读取并总结了机密邮件。此次违规事件中,微软内部管道的执行点失效,且安全堆栈中的任何工具都未能标记出这一问题。受影响的组织包括英国国家医疗服务体系(NHS),该机构将其记录为INC46740412,这表明了此次故障对受监管医疗环境的影响范围。微软将此事件追踪为CW1226324。此项咨询(最初由BleepingComputer于2月18日报道)标志着Copilot的检索管道在八个月内第二次违反其信任边界——即AI系统访问或传输被明确限制接触的数据。第一次事件更为严重。

2025年6月,微软修补了CVE-2025-32711,这是一个由Aim Security研究人员命名为“EchoLeak”的严重零点击漏洞。一封恶意邮件绕过了Copilot的提示注入分类器、链接编辑、内容安全策略及其引用提及,从而秘密窃取了企业数据。此过程无需点击,也无需用户操作。微软为此漏洞分配了9.3的CVSS评分。

两次事件的根本原因不同,但都指向一个盲点:一次是代码错误,另一次是复杂的漏洞利用链,但都产生了相同的结果。Copilot处理了被明确限制接触的数据,而安全堆栈却一无所知。

为什么端点检测与响应(EDR)和Web应用防火墙(WAF)在架构上对此持续存在盲点?EDR监控文件和进程行为,WAF检查HTTP负载。两者都没有针对“您的AI助手刚刚违反了其信任边界”的检测类别。这种差距的存在是因为大型语言模型(LLM)检索管道位于传统安全工具从未被设计来观察的执行层之后。Copilot摄取了被告知要跳过的带标签邮件,而整个操作都发生在微软的基础设施内部。

相关新闻

亚洲50家潜力AI初创公司名单揭晓:Tech in Asia 预测下一代行业巨头
行业新闻

亚洲50家潜力AI初创公司名单揭晓:Tech in Asia 预测下一代行业巨头

知名科技媒体 Tech in Asia 近日发布了“亚洲50家崛起中的AI初创公司”名单。该报道由 Aya Lin 撰写,指出这些处于上升期的初创企业具备成为人工智能领域“下一个大事件”的巨大潜力。本文将基于此报道,分析亚洲AI创业生态的最新动向及其在全球技术格局中的重要性。

Intercom正式更名为Fin:从客服工具向AI Agent平台全面转型
行业新闻

Intercom正式更名为Fin:从客服工具向AI Agent平台全面转型

知名客服软件公司Intercom宣布正式更名为Fin。公司CEO表示,此次更名旨在反映公司向AI驱动的客户代理平台转型的核心战略。虽然“Intercom”将继续作为其客服软件平台的名称(并同步推出了Intercom 2),但母公司将以其领先的AI代理产品Fin命名。此举标志着公司通过“打破过去”来拥抱AI驱动的未来,目前公司1400名员工已正式转入Fin名下。

行业新闻

用户警示:取消Claude订阅或导致Claude Design项目访问权限丢失

近日,一名Hacker News用户发帖分享了其在使用Claude Design过程中的负面体验。该用户在取消Claude Code Max订阅后,发现无法再访问此前在Claude Design中创建的项目。此外,该用户还揭露了Claude计费系统存在的缺陷,包括补偿积分在订阅结束后立即失效且无法通过重新订阅恢复。此事件引发了开发者社区对AI工具在快速迭代中忽视用户资产安全和计费逻辑复杂性的广泛讨论。