首页
社区
课程
招聘
vLLM曝高危远程代码执行漏洞,AI服务器面临攻击风险
发表于: 2025-5-22 09:45 182

vLLM曝高危远程代码执行漏洞,AI服务器面临攻击风险

2025-5-22 09:45
182

Image

最近,安全研究人员披露了一个影响大型语言模型(LLM)推理和服务引擎vLLM的重大安全漏洞,编号为CVE-2025-47277。该漏洞的CVSS评分高达9.8,标志着其严重性,尤其是在当前AI和大数据应用广泛的背景下,潜在的攻击风险显得愈发突出。

vLLM项目最初由加州大学伯克利分校的天空计算实验室开发,现为一个由社区支持的项目,旨在提供快速且易于使用的LLM推理和服务引擎。此库支持多种分布式部署、先进的缓存管理,并且能够与业界的LLM基础设施顺利集成。随着AI技术的进步,vLLM作为一个服务引擎,不仅提升了语言模型的效率,同时也吸引了大量并行用户的参与。

该漏洞的根源在于PyNcclPipe通信服务中存在的不安全反序列化错误。这一问题使得攻击者可以通过向正在运行的PyNcclPipe服务发送恶意制作的对象,从而在主机上执行任意系统命令,达到完全控制服务器的目的。攻击的具体方法涉及pickle.loads函数的直接调用,该函数用于反序列化用户提供的数据。这使得整个应用程序的安全性受到威胁,尤其是PyNcclPipe的实现方式显得尤为重要。

研究表明,该漏洞使得使用分布式节点之间点对点消息传送的系统在面临不良数据输入时极为脆弱。这项服务在对数据进行管理时,存在着严格的流程,但主要问题在于其使用Python内置的序列化模块处理来自外部的输入而未做充分防护。因此,服务器的安全便遭到了严重挑战。由于该漏洞允许外部恶意用户通过特定的攻击方法,远程控制受影响的系统,这种情况在全球范围内都可能导致广泛的危害。

此外,与当前热点有关的风险还与PyTorchTCPStore绑定行为有关。PyTorch的默认配置设置使得其TCPStore接口将监听所有网络接口,而不论具体绑定的IP地址。虽然vLLM已经针对这一点实施了变通方法,确保与指定的私有接口绑定,但问题依然存在,用户需提高警惕以避免潜在的攻击。

鉴于该漏洞的严重性,安全专家建议所有使用vLLM的用户立即更新至v0.8.5版本,以修复此关键漏洞。更新不仅可以降低被攻击的风险,还能增强系统整体的安全防护能力。此外,企业在进行系统配置时,需确保相关接口的安全设置,避免未授权访问和数据泄露。

在过去的时间里,AI技术的迅猛发展也使得相关的安全隐患不断增加,尤其是在开放源代码和社区驱动项目中,安全性可靠性的保障更是不可忽视。安全问题的频繁出现,不仅关乎开发者的责任,也影响着每一位用户和客户的信息安全。建立一个安全的开发环境,对于确保AI技术持续健康的发展至关重要。

当前,全球对AI技术的信任与依赖越来越高,然而随之而来的安全隐患同样不容小觑。科研人员和工程师们在享受便利的同时,必须充分了解潜在的风险,采取必要的预防措施。为此,各大科技公司应加强对开源软件的审查机制,确保漏洞在第一时间被发现并加以修复。同时,行业间信息的共享和有效沟通,亦能为安全防护建起一道更为坚实的屏障。

综上所述,vLLM的安全漏洞不仅反映了技术发展的两面性,也提醒我们在推动技术进步的同时,不可忽视安全问题的严峻性。通过不断的技术迭代与社区协作,企业才能最终在复杂的网络环境中守护好自己的信息安全。希望通过此次事件,能够引起更多开发者、企业以及公众的重视,共同携手应对未来的安全挑战。


[培训]科锐逆向工程师培训第53期2025年7月8日开班!

收藏
免费 0
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回