【漏洞通告】关于vLLM trust_remote_code远程代码执行漏洞的预警通报

                                                                               安全通告

                                                   关于 vLLM trust_remote_code远程代码执行漏洞的预警通报

                                                                                                发布日期:20260403

                                                                                                [2026]007

漏洞描述

2026年04月03日监测发现,vLLM trust_remote_code绕过远程代码执行漏洞(CVE-2026-27893),该漏洞存在于vllm/model_executor/models/nemotron_vl.py和vllm/model_executor/models/kimi_k25.py文件中,由于代码中硬编码设置trust_remote_code=True,导致用户显式配置trust-remote-code=False被绕过。攻击者可通过构造恶意HuggingFace模型仓库,在模型加载过程中执行任意Python代码,获取服务器执行权限,进而实现系统控制、数据窃取或横向移动。该漏洞破坏了trust_remote_code安全机制的信任边界,可能导致敏感数据泄露及服务被完全接管,存在较高合规风险。

vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。其核心特性包括PagedAttention高效内存管理、并行化调度优化以及对多GPU、分布式环境的良好支持。vLLM兼容Hugging Face接口,便于模型快速加载与集成,广泛用于推理服务、AI应用后端与生产级模型部署场景。

漏洞编号

CVE-2026-27893

漏洞危害

两个模型实现文件在加载子组件时硬编码 trust_remote_code=True,绕过用户明确的 –trust-remote-code=False 安全退出。这使得攻击者通过恶意模型实现远程代码执行。即使用户明确禁用了远程代码信任,恶意代码也仍会被执行。

漏洞等级

高危

受影响版本

0.10.1 <= vLLM < 0.18.0

修复方案

  1. 官方升级

目前官方已有可更新版本,建议受影响用户升级至最新版本:vLLM >= 0.18.0

下载链接:https://github.com/vllm-project/vllm/releases/

参考链接

https://avd.aliyun.com/detail?id=AVD-2026-27893

https://github.com/vllm-project/vllm/security/advisories/GHSA-7972-pg2x-xr59