像 OpenClaw 这样的开源 AI Agent 框架增长快、进入业务栈快,同时处在沙箱、插件、认证、配置这些高风险边界上。一旦进入真实业务环境,风险会直接传导到企业自己的身份体系、敏感配置和供应链安全。蓝军 Bot 的第一大目标,就是把软件供应链里最值得优先排的雷排出来。
在短时间内,蓝军 Bot 累计发现了18个OpenClaw漏洞,其中包含了10个高危漏洞,均已修复并获得了OpenClaw官方的公开致谢,大家可以通过A.I.G(AI-Infra-Guard)(https://github.com/Tencent/AI-Infra-Guard)的“OpenClaw安全体检”功能进行快速风险自查。 这意味着这些修复不只保护了腾讯自身的业务环境,而是直接回馈到了 OpenClaw、Linux、Langflow 等开源生态的每一个下游用户。对于正在大规模采用这些 AI 基础设施组件的全球企业和开发者来说,这批修复就是他们软件供应链上少踩的雷。
展开三个最有代表性的 case——它们各自说明了不同层面的价值。
OpenClaw 环境变量泄露漏洞(高危,GHSA-jccr-rrw2-vc8h,官方致谢)。 OpenClaw 是目前最活跃的开源 AI Agent 框架之一,大量企业基于它构建云上 Agent 产品。它真正危险的地方不只是"很火",而是一旦部署,就能调用云服务器上各种敏感数据与工具权限。这个漏洞的问题出在 jq safe-bin 策略上:OpenClaw 为了避免数据泄露,在默认可执行的白名单工具参数中禁掉了 env 关键字,但漏掉了 jq 内置的 $ENV 对象,攻击者借此绕过安全策略读取服务器环境变量中的配置信息与密钥。一旦攻击者拿到 AK/SK、Git 凭证、模型 API Key 等密钥,往往就是后续更多深度渗透动作的起点。该漏洞已获 OpenClaw 官方致谢,安全补丁已合入主线,所有使用 OpenClaw 的企业和开发者都能直接获益于这次修复。
Langflow Agentic Assistant 执行链漏洞(严重,CVE-2026-33873)。 这个洞有意思的地方在于,它不是传统意义上的老洞型,问题出在 AI 功能链本身:Agentic Assistant 的验证阶段会直接执行 LLM 生成的 Python 代码,已认证用户无需管理员权限就能通过影响模型输出在服务端执行任意代码。它代表的是一类通用 Agent 框架共有的新风险——模型输出、工具调用和执行环境之间的边界被打穿。这些漏洞已同步更新至我们开源的 AI 红队安全测试平台 A.I.G(AI-Infra-Guard)(https://github.com/Tencent/AI-Infra-Guard) 的 AI 基础设施漏洞库中,为社区用户提供更早的风险预警与检测能力,推动整个 Agent 框架生态的安全水位提升。
Linux 内核 Bluetooth 漏洞(高危,CVE-2025-39981/39982)。 蓝牙 MGMT 模块的 use-after-free,竞态条件下 pending 结构被提前释放,可导致内核崩溃乃至提权,影响服务器可用性与数据安全。我们还在 Rxrpc 等多个内核模块中有更多发现。Linux 内核这种被全球安全团队反复锤炼多年的目标,代码规模大,审计历史长,修复链路复杂——蓝军 Bot 结合 Agent 的代码理解能力与 Fuzzing 框架针对性优化了底层内核漏洞的挖掘能力。这些补丁已合入 Linux 内核主线,受益的不只是腾讯自身的服务器集群,而是每一台运行 Linux 的设备。
三个 case 覆盖了三层:热门 AI Agent 框架的上游排雷、通用 Agent 框架生态的风险打样、底层操作系统基础设施的供应链安全。而它们的共同点是:每一个修复都通过负责任的漏洞披露流程回馈到了开源社区,惠及全球开发者。