
DeepSeek作为中国AI初创公司深度求索推出的开源大模型,凭借其高性能(性能对标OpenAI o1正式版)和MIT许可协议(支持免费商用及二次开发),近期迅速成为全球云厂商的焦点。
DeepSeek“朋友圈”扩容DeepSeek的火爆,不仅体现在用户数量的激增上,更在于它赢得了芯片巨头的青睐。AMD、英伟达、英特尔等大佬纷纷宣布适配DeepSeek,国产GPU企业更是欢呼雀跃,仿佛过年一般。壁仞科技、摩尔线程、华为昇腾等纷纷宣布上线DeepSeek推理服务,为全球开发者提供了云端体验的全系列模型服务,从1.5B到70B,应有尽有,简直是开发者的福音。
早在1月25日,AMD宣布将DeepSeek-V3模型集成到其Instinct MI300X GPU上;1月31日,英伟达官宣其NVIDIA NIM微服务预览版支持DeepSeek-R1模型;2月1日,美国芯片巨头英特尔宣布DeepSeek能够在英特尔产品上运行,包括搭载英特尔处理器的AI PC上实现离线使用。
正在过年的国内芯片企业紧随其后。
2月5日,壁仞科技宣布壁仞AI算力平台正式上线 DeepSeek R1 蒸馏模型推理服务,全球开发者可云端体验 1.5B、7B、8B、14B、32B、70B 全系列模型服务。该服务具备以下两大核心优势:一是零部署成本:免去硬件采购与环境搭建,实现“开箱即用”的云端推理体验。二是多场景覆盖:针对LLM等不同任务预置优化配置方案。
2月4日,摩尔线程智能科技公司在2025年2月宣布成功部署DeepSeek蒸馏模型推理服务,验证了其自研全功能GPU在复杂AI任务中的支持能力。摩尔线程还计划开放自主设计的夸娥(KUAE)GPU智算集群,支持DeepSeek V3、R1模型及新一代蒸馏模型的分布式部署。
2月4日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用,推理快速部署,带来更快、更高效、更便捷的AI开发和应用体验,欢迎广大开发者体验使用。

DeepSeek自2024年12月上线以来便以迅猛的速度在全球范围内获得了广泛关注,其日活用户数在短时间内突破2000万,成为全球增速最快的AI应用之一。
据了解,DeepSeek在研发大模型时,选择使用英伟达的中间指令集框架Parallel Thread Execution (PTX),而不是常用的CUDA编程框架。PTX是一种底层硬件指令集,能够直接与GPU驱动函数进行交互,实现更为精细的硬件操作,可绕开硬件对训练速度的限制,提高训练效率和灵活性。
DeepSeek的创新表明,中美在生成式AI领域的差距正在迅速缩小,在某些领域中国已现领先迹象。一位大模型产业人士认为,DeepSeek的出圈的最大意义在于,让外界看到了中国AI的爆发能力,以及中国正在加速缩短与美国AI的差距,速度比人们想象中要更快。
新的中美大模型竞逐还在继续,OpenAI深夜推出o3-mini新模型已印证了这一点,但「DeepSeek风暴」也只是中国AI崛起的开始,CNBC的Jim Cramer就猜测百度是否会成为下一个吸引市场关注的中国科技巨头。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。
