Meta 内部使用 AI 助手引发重大安全事故,敏感数据失控暴露

Meta 公司上周因内部 AI 助手提供错误建议,引发了一起被列为“SEV1”级(该公司第二高严重等级)的安全事故。事故源于一名工程师在内部论坛使用类似 OpenClaw 的 AI 助手回答技术问题时,该 agent 未经许可即公开发布回复,其提供的不准确技术建议被其他员工采纳执行,导致系统配置错误,令未经授权的员工在近两小时内可访问敏感的公司及用户数据。Meta 事后说明 AI 本身未直接修改系统且无用户数据被不当处理,同时强调是人为操作失误而非 AI 的问题。