这样的事故以后只会越来越多:
最近,Meta的一名员工在内部论坛发帖求助技术问题,结果公司的AI Agent不请自来,主动回复了帖子。更糟糕的是,AI Agent给的建议完全是错的,但提问的同事却照做了。
最终,大量员工获得了本不该有的系统权限,海量数据暴露了整整两个小时。Meta将这事定级为“Sev 1”级别安全事故——仅次于系统彻底瘫痪的最高警报。
在安全上“翻车”的还有火爆全网的 “龙虾”(OpenClaw)。近期,OpenClaw接二连三爆出插件瘫痪、功能失效,以及无视人工指令自动删除邮件等问题。
这两起事故暴露了一个残酷现实:我们使用AI Agent时,无法完全控制它。
当一项技术从“玩具”变成“工具”、再变成“员工”, 对其进行“控制和管理”就成了头等大事。AI安全治理的新市场应运而生。此前文章中提到,嗅觉敏锐的企业已经开始靠“控制AI”来赚钱。刚刚举行的RSAC 2026大会再次验证了这一趋势的火爆。

根据《数说安全》统计,今年有117家参展企业(占比18.5%)的业务与AI安全直接相关,其中,56家企业的核心业务围绕AI Agent的安全治理展开。
要做这门“控制”的生意,得明白三个问题:
- AI Agent能看到什么?
- AI Agent能做什么?
- AI Agent做了什么?
这三个问题,对应了三个赚钱的维度。
第一,管住AI Agent 的“眼睛”。 Meta事故中,Agent之所以能泄露海量数据,前提是它本来就有权限接触这些数据,看到了不该看的东西。这个方向本质上是给AI戴上“眼罩”:自动发现企业环境里所有API Key、Token和AI Agent身份,生成一张完整的“机器身份地图”,然后为每个身份实施最小权限原则,只给它完成工作必需的权限。
代表技术方向有“非人类身份”(NHI)安全,企业盈利模式主要是SaaS订阅,按被管理的身份数量收费。Global Info Research数据显示,2025年全球非人类身份管理(NHIM)解决方案市场规模超2亿美元。
第二,管住AI Agent 的“手脚” 。龙虾之所以能疯狂删邮件,不是因为它看到了邮件,而是因为它被授权执行“删除”这个动作,做了不该做的事。这个方向本质上是给AI戴上“手套”:在Agent与外部工具之间设置一道安全网关,所有调用必须先经过认证和授权,划定它能操作的范围。
代表技术方向有MCP(Model Context Protocol)安全,企业盈利模式主要是网关订阅费,按调用量或受保护的服务器数量收费。部分公司已在这个赛道跑出规模,完成千万级融资。
第三,管住AI Agent的“行为”。 这个方向本质上是给AI装上“行车记录仪”:实时监控它干了什么,出了问题能追溯、能回滚。核心技术包括行为监控、全链路审计、一键熔断等。企业盈利模式主要是平台订阅费,按受监控的Agent数量或事件量收费,另外收取合规报告等模块的增值服务费用。
任何一家想靠“控制AI”赚钱的企业,都可以在这三个维度中找到自己的入场位置,或选择打通三个维度,提供“全栈式”AI Agent治理平台。

值得注意的是,巨头已经快速集结,比如微软提出“Agentic Security Platform”战略、SentinelOne收购Prompt Security、ServiceNow吞下Veza……大厂下场扫货,说明窗口期正在收窄。越早进场的企业,或许越有可能成为这场“控制”生意的赢家。
我们将持续追踪代表性玩家的动向,看看在所有人都忙着给AI“松绑”的时候,那些买“缰绳”的钱,究竟进了谁的口袋。
#Meta #openclaw #AIAGENT #龙虾 #agenticai
注:本文为「Eastora全球出海观察」原创,欢迎点赞、评论、转发,转载需经授权
