DeepSeek私有化部署或被“偷家”

南都N视频 2025-03-20 07:12:00

DeepSeek火爆出圈,从医院到高校、政务领域到金融服务,每天都有大量新成员加入私有化部署阵营。

不过,私有化部署背后也出现风险。今年的全国两会现场,第十四届全国政协委员、奇安信董事长齐向东发出警示:“有几千家单位接入了DeepSeek大模型私有部署。但是扫描发现,90%‘裸奔’,通过简单的攻击语句就能控制大模型,甚至拿到后台数据。”

大模型本地化部署,为何服务器会“裸奔”?先说结论:这一现象的核心症结,指向一款大模型部署工具“Ollama”。安全配置不当,风险随时“引爆”!专家建议,立即修改Ollama配置,加入身份认证手段!

监测 一间装满智能家具的“仓库”却没装“门锁”

此次热传的“裸奔”事件中,矛头指向的是一款名为“Ollama”的大模型工具。准确来说,奇安信资产测绘鹰图平台2月监测发现,在8971个Ollama大模型服务器中,有6449个活跃服务器,其中88.9%都“裸奔”在互联网上。

什么是Ollama?相关资料显示,这是一个本地私有化部署大语言模型的运行环境和平台,支持DeepSeek-R1等1700多个模型的高效部署与管理,可将它比作一间装满智能家具的“仓库”,能帮你快速搬出“DeepSeek全屋管家”“Qwen智能空调”“Llama扫地机器人”这些高端设备。而“裸奔”意味着,“仓库”默认不装门锁,路人随便溜进来:有人偷开“DeepSeek管家”乱调室温,有人拆走“Qwen空调”零件卖钱……

目前,Ollama已成为主流的大模型本地化部署工具。360全球互联网测绘数据显示,2025年1月至2月,仅一个月时间,全球基于Ollama私有化部署大模型的数量增长超566%。

3月3日,国家信息安全漏洞库(CNNVD)收到关于Ollama安全漏洞情况的报送。称未经授权的攻击者可在远程条件下调用Ollama服务接口,执行包括但不限于敏感模型资产窃取、虚假信息投喂、模型计算资源滥用和拒绝服务、系统配置篡改和扩大利用等恶意操作。3月4日,国家网络与信息安全信息通报中心发布通报,指出大模型工具Ollama存在严重安全风险。

隐忧 存在“默认开放访问端口”漏洞

那么,Ollama究竟存在什么漏洞?又是如何被“偷家”的?

据清华大学网络空间测绘联合研究中心分析,使用Ollama在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放访问端口,且无身份验证机制,该服务直接暴露在公网环境,攻击者可以直接访问并调用模型接口,窃取训练数据、模型参数,甚至删除或篡改模型文件,造成模型服务的核心数据、算法完整性和运行稳定性面临安全风险。

对此,有专家建议,所有部署DeepSeek服务的企业和个人应立即采取有效的安全防护措施,包括立即修改Ollama配置、加入身份认证手段等。

南都大数据研究院了解到,当前,不少企事业单位依托拥有高性能计算资源的平台开展本地部署,以寻求更安全的部署环境和技术:比如广东财经大学、华南师范大学均基于中国电信天翼云智算平台部署“满血版DeepSeek”;佛山市人工智能应用赋能中心、广州人工智能公共算力中心等实现了DeepSeek在国产及主流算力架构上的无缝适配,为高校、政府、企业提供全栈私有化部署服务。

面对不断扩张的部署规模,广州人工智能公共算力中心相关负责人向南都记者透露,该中心目前正在开展一系列应对、升级、研讨等动作,加急探索数据全生命周期安全、模型行为可控性、系统攻击面管理等解决方案。

防范 聚焦数据安全、模型可控、攻击管理

开源模型既可带来技术红利,或也引致应用风险。阿里研究院数字经济研究中心副主任、CIDEG兼职研究人员傅宏宇指出,DeepSeek开源模型的风险主要集中在数据安全和安全漏洞两个方面。其中,数据安全风险主要表现为敏感数据的攻击泄露以及思维链数据泄露;安全漏洞风险则包含网络安全、内容安全、偏见与歧视、代码安全、CBRN(化学、生物、放射和核能)安全等方面。

广州人工智能公共算力中心主任李学军也曾公开谈道,在政务单位使用人工智能公共算力中心提供的模型时,保障数据安全与信息安全是核心任务,需重点关注数据全生命周期安全、模型行为可控性、系统攻击面管理三个方面问题。

当前,无论是理论还是实践层面,关于算法与数据风险及其治理议题、对象,还未有清晰的治理方案,而DeepSeek新技术路线的出现令原先本就急迫且棘手的治理格局陷入了更加复杂的氛围之中。清华大学公共管理学院副教授、CIDEG副主任赵静认为,“如何规制融合感知、决策、预测、协同能力的高度自主性技术的失范风险”,将成为未来面临的最大技术治理难题之一。她指出,开源模型可让众多的开发者本地化部署,这在无形中也会增强私营部门数据保护机制建设,全社会数据治理的监管成本可能随之下降。不过,过度的透明度可能使模型更容易受到攻击,开源“污染”问题和AI幻觉依然是技术专家担心的议题。

在傅宏宇看来,目前对模型开源的风险形成了两类治理思路。一类考虑开源模型的“全量风险”,以事前风险防范为核心;另一种治理思路是分析模型开源独有的“增量风险”,即与来自现有其他可比技术的风险相比的新增独特风险。基于此,他建议合理划定各类主体的责任边界,建立对开源模型生态的国际信任,推动安全公共知识的积累和认知协同,从而构建大模型开源生态的协同治理体系。

采写:南都记者 张雨亭 制图:朱林(豆包AI)

1 阅读:20