Kali Linux 团队在其不断扩展的LLM驱动安全系列中发布了全新指南,本次方案通过完全在本地硬件上运行大语言模型,彻底摒弃了对第三方云服务的依赖。
该指南展示了安全专业人员如何使用自然语言驱动渗透测试工具,所有处理均在本地完成,确保数据完全不离开设备。
长期以来,在敏感的渗透测试环境中,隐私和操作安全问题使得依赖云的AI工具难以实际应用。Kali Linux 的新指南直接解决了这一痛点,提供了一个完全自托管的解决方案,其中LLM、模型上下文服务器和GUI客户端均在本地运行。
该方案需要配备支持CUDA的NVIDIA GPU,指南也坦率地指出了这个实际限制:成本在于硬件购置和运行费用,而非订阅服务。参考硬件采用的是配备6GB显存的NVIDIA GeForce GTX 1060,这款中端消费级GPU既能满足需求又不过度。
指南首先安装NVIDIA专有的非自由驱动程序以启用CUDA加速,替代了缺乏本地LLM推理所需计算支持的开源Nouveau驱动程序。重启后,通过命令验证驱动版本550.163.01和CUDA版本12.4是否正常运行。
Ollama作为本地LLM引擎整个方案的核心是Ollama,一个简化下载和运行开源权重模型的封装工具。通过手动解压其Linux AMD64 tarball并配置为系统服务,Ollama可以在后台持续运行并开机自启。
评估中下载了三款支持原生工具调用的模型: (4.9 GB)、 (2.0 GB) 和 (2.5 GB) —— 它们的大小都适合在6 GB显存限制内运行。工具支持是硬性要求;没有它,LLM无法通过MCP层调用外部命令。
MCP-Kali-Server:连接AI与终端的桥梁模型上下文协议(MCP)将对话式LLM转变为主动的安全工具。Kali仓库中已有的包充当轻量级API桥接,在地址上暴露一个本地Flask服务器。
启动时,它会验证各关联工具的存在。配套的二进制文件连接到该API,并将可用工具提供给MCP客户端。
该服务器还支持AI辅助的渗透测试任务,如Web应用测试、CTF挑战解题,以及与Hack The Box或TryHackMe等平台的交互。
5ire:连接Ollama与MCP的桥梁由于Ollama本身不支持MCP,需要一个客户端桥接。指南选择了5ire——一个开源的AI助手和MCP客户端,以Linux AppImage格式分发。
版本0.15.3安装到目录,链接到系统路径,并配置了桌面入口。在5ire的GUI中,用户需启用Ollama作为提供商,为每个模型开启工具支持,并使用命令将注册为本地工具。
端到端验证:自然语言控制Nmap该方案的实际能力通过一个提示词得到了验证:让基于的5ire对执行TCP端口扫描,扫描端口80、443、21和22。
LLM正确解析了自然语言请求,通过MCP链调用,并返回结构化结果——整个过程完全离线,通过确认全程100% GPU处理。
该方案为攻击性安全工作提供了一种可行的、保护隐私的云AI助手替代方案。
Kali Linux团队表示,完整的Ollama、mcp-kali-server和5ire均为开源项目,它们依赖于硬件而非服务,并且可以根据可用显存进行调整。
对于在隔离或数据敏感环境中运作的红队和安全研究人员而言,本地推理与MCP驱动工具执行的结合,标志着向自主、离线的AI辅助渗透测试迈出了有意义的一步。