安全通告
关于 vLLM trust_remote_code远程代码执行漏洞的预警通报
发布日期:2026–04–03
[2026]007号
漏洞描述
2026年04月03日监测发现,vLLM trust_remote_code绕过远程代码执行漏洞(CVE-2026-27893),该漏洞存在于vllm/model_executor/models/nemotron_vl.py和vllm/model_executor/models/kimi_k25.py文件中,由于代码中硬编码设置trust_remote_code=True,导致用户显式配置trust-remote-code=False被绕过。攻击者可通过构造恶意HuggingFace模型仓库,在模型加载过程中执行任意Python代码,获取服务器执行权限,进而实现系统控制、数据窃取或横向移动。该漏洞破坏了trust_remote_code安全机制的信任边界,可能导致敏感数据泄露及服务被完全接管,存在较高合规风险。
vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。其核心特性包括PagedAttention高效内存管理、并行化调度优化以及对多GPU、分布式环境的良好支持。vLLM兼容Hugging Face接口,便于模型快速加载与集成,广泛用于推理服务、AI应用后端与生产级模型部署场景。
漏洞编号
CVE-2026-27893
漏洞危害
两个模型实现文件在加载子组件时硬编码 trust_remote_code=True,绕过用户明确的 –trust-remote-code=False 安全退出。这使得攻击者通过恶意模型实现远程代码执行。即使用户明确禁用了远程代码信任,恶意代码也仍会被执行。
漏洞等级
高危
受影响版本
0.10.1 <= vLLM < 0.18.0
修复方案
- 官方升级
目前官方已有可更新版本,建议受影响用户升级至最新版本:vLLM >= 0.18.0
下载链接:https://github.com/vllm-project/vllm/releases/
参考链接
https://avd.aliyun.com/detail?id=AVD-2026-27893
https://github.com/vllm-project/vllm/security/advisories/GHSA-7972-pg2x-xr59


