vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。
简述:vLLM存在远程代码执行漏洞,由于其在解析模型配置时,无条件加载Hugging Face模型中的auto_map动态模块,且未对trust_remote_code选项进行有效校验。攻击者一旦能够控制模型仓库路径,即可在模型加载过程中注入并执行任意Python代码。0x05 POC状态
0x06 修复建议
目前官方已发布漏洞修复版本,建议用户升级到安全版本:https://github.com/vllm-project/vllm