DeepSeek掀起AI算力革命:英伟达暴跌17%!台积电暴跌13%!

芯智讯 2025-01-28 09:53:15

近日,中国人工智能(AI)大模型技术厂商DeepSeek(深度求索)发布的推理大模型DeepSeek-R1火爆网络,其不仅性能比肩OpenAI o1 ,并且其所需的训练成本可能只有后者的约1/20,API的定价更是只有后者的约1/28,相当于使用成本降低了约97%。这不仅引发了外界对于OpenAI、Meta、谷歌等众多大模型厂商严重依赖于高成本的英伟达AI芯片持续堆算力的“大力出奇迹”模式的质疑,也导致了市场对于众多市值已大涨的AI芯片股的价值需要重估的担忧。

受此影响,在美国当地时间1月27日的美股交易当中,Marvell大跌19.1%、博通大跌17.4%、英伟达大跌16.97%,台积电大跌13.33%、美光大跌11.71%、AMD大跌6.37%、ASML大跌5.75%。

DeepSeek-V3横空出世:性能比肩GPT-4o,训练成本仅为其1/20

早在2024年12月26日,DeepSeek就通过官方微信公众号发布推文称,旗下全新系列模型DeepSeek-V3首个版本上线并同步开源。国外独立评测机构Artificial Analysis测试了DeepSeek-V3后表示,“DeepSeek-V3超越了迄今为止所有开源模型。”更为关键的是,该模型使用英伟达H800 GPU在短短两个月内就训练完成,并且仅花费了约558万美元。

据介绍,DeepSeek-V3为自研MoE模型,671B参数,激活37B,在14.8T token上进行了预训练。DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。

针对DeepSeek-V3,独立评测网站Artificial Anlaysis就关键指标——包括质量、价格、性能(每秒生成的Token数以及首个Token生成时间)、上下文窗口等多方面——与其他人工智能模型进行对比,最终得出以下结论。

质量:DeepSeek-V3质量高于平均水平,各项评估得出的质量指数为80。

价格:DeepSeek-V3比平均价格更便宜,每100万个Token的价格为0.48美元。其中,输入Token价格为每100万个Token 0.27美元,输出Token价格为每100万个Token 1.10 美元。

速度:DeepSeek-V3比平均速度慢,其输出速度为每秒87.5个Token。

延迟:DeepSeek-V3与平均水平相比延迟更高,接收首个Token(即首字响应时间)需要1.14秒。

上下文窗口:DeepSeek-V3的上下文窗口比平均水平小,其上下文窗口为13万个Token。

最终Artificial Anlaysis得出结论:DeepSeek-V3模型超越了迄今为止发布的所有开放权重模型,并且击败了OpenAI的GPT-4o(8月),并接近Anthropic的Claude 3.5 Sonnet(10月)。DeepSeek-V3的人工智能分析质量指数得分为80,领先于OpenAI的GPT-4o和Meta的Llama 3.3 70B等模型。目前唯一仍然领先于DeepSeek的模型是谷歌的Gemini 2.0 Flash和OpenAI的o1系列模型。领先于阿里巴巴的Qwen2.5 72B,成为了AI大模型领域的领先者。

更重要的是,DeepSeek使用2048块英伟达H800 GPU在短短两个月内就训练出了DeepSeek-V3,仅花费了约557.6万美元,仅为GPT-4o(约超过1亿美元)的接近二十分之一,资源运用效率极高。

OpenAI创始成员Karpathy也表示:“DeepSeek-V3让在有限算力预算上进行模型预训练这件事变得容易。DeepSeek-V3看起来比Llama-3-405B更强,训练消耗的算力却仅为后者的1/11。”(据外媒估计,Meta的大模型Llama-3.1的训练投资超过了5亿美元。)

当时外界对此事也有一些质疑之声,比如有测试发现,DeepSeek-V3竟然声称自己是ChatGPT。一时间,“DeepSeek-V3是否在使用ChatGPT输出内容进行训练”的质疑声四起。

对此,有猜测称,DeepSeek可能用了包含GPT-4通过ChatGPT生成的文本的公共数据集。“如果DeepSeek-V3是用这些数据进行训练的,那么该模型可能已经记住了GPT-4的一些输出,现在正在逐字反刍它们。”

不过,DeepSeek-V3也并非是第一个错误识别自己的模型,谷歌的Gemini等有时也会声称是竞争对手的模型。例如,Gemini在普通话提示下称自己是百度的文心一言聊天机器人。造成这种情况的原因可能在于,AI公司在互联网上获取大量训练数据,但是,现如今的互联网本就充斥着各种各样用AI生产出来的数据。

DeepSeek-R1:性能比肩OpenAI o1,使用成本仅为其1/28

然而,在时隔不到1个月之后,2025年1月20日,DeepSeek又发布了全新的推理大模型DeepSeek-R1,回击了外界的质疑。

据介绍,DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

在国外大模型排名Arena上,DeepSeek-R1基准测试已经升至全类别大模型第三。其中,在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一;其竞技场得分达到1357分,略超OpenAI o1的1352分。

1月27日,社交平台认证为“AI投资机构Menlo Ventures负责人”的Deedy对比谷歌Gemini和DeepSeek-R1后表示,DeepSeek-R1更便宜、上下文更长、推理性能更佳。

DeepSeek还宣布将 DeepSeek-R1 训练技术全部公开,以期促进技术社区的充分交流与创新协作。

除了性能出众之外,低成本也是DeepSeek-R1一大关键优势,虽然其预训练费用虽然并未公开,但是猜测应该与DeepSeek-V3相当。同时,DeepSeek公布的API的定价显示,其每百万输入tokens 1元(缓存命中)/4元(缓存未命中),每百万输出tokens 16元。DeepSeek-R1这个收费大约是OpenAI o1正式版运行成本的约1/28。OpenAI o1模型上述三项服务的定价分别约合人民币55元、110元、438元。

也就是说,用户使用DeepSeek-R1,即可体验到与OpenAI o1 性能相当的大模型使用体验,但是使用成本只需要OpenAI o1的1/28,即成本降低了约97%。

DeepSeek掀起AI算力“革命”

众所周知,算法、算力和数据是影响AI能力的三大核心要素,而对于通用大模型来说,经过这两年来发展,业界普遍认为要想实现AGI(通用人工智能)必须依赖于越来越庞大的大参数模型,因此需要更为强大算力来作为支持。因此我们可以看到,微软、谷歌、Meta、X、字节跳动、亚马逊、阿里巴巴等大厂一直在持续加大对于AI芯片的采购。

近日,在美国政府的推动下,OpenAI、软银、甲骨文等厂商还宣布将联合成立一家新的AI公司“Stargate”(星际之门),未来四年将投资5000亿美元,而这其中大部分资金都将被用于建设AI基础设施。

在这些厂商对于AI芯片旺盛的需求带动下,此也直接推动了英伟达、博通、台积电、ASML等众多AI芯片产业链相关厂商业绩和股价的大涨。

但是,如果DeepSeek的仅利用非常低的算力和成本就能够实现高级的AI能力的模式被普遍认可,那么可能将会引发对于现有的依赖于堆芯片算力的AI发展模式的“革命”。

一位Meta工程师公开表示,其内部正因DeepSeek进入“恐慌模式”。

Scale AI创始人Alexander Wang也表示,DeepSeek是“中国科技界带给美国的苦涩教训”,证明“低成本、高效率”的研发模式可能颠覆硅谷巨头的高投入路径。社交平台认证为“风险投资人”的ShortBear评论称,“DeepSeek的兴起对那些商业模式为销售大量GPU(英伟达)或购买大量GPU(OpenAI、微软、谷歌)的公司都形成了挑战。”

因此,我们可以看到,在美股1月27日的交易当中,英伟达、台积电、博通、ASML等AI芯片产业链上的巨头们的股价都出现了大幅的下跌。

不过,对于此番DeepSeek所引发的对AI芯片产业链企业价值重估的恐慌,也有分析师认为这是一个很好的投资机会,因为即使对于AI芯片需求暂时减少,但是对于AI芯片需求依然会存在,该市场也依然会由英伟达占据领导地位。

投行韦德布什资深股票分析师Daniel Ives在最新的研报中称,DeepSeek使用英伟达性能较弱的芯片构建了足以媲美OpenAI的ChatGPT和Meta的Llama 3.1的大模型,因此引起了美国科技股的波动。“但我们认为,这是另一个黄金买入机会,而不是恐慌的时候。全球只有英伟达推出自主、并用于机器人和更广泛AI用例的芯片。DeepSeek的大模型虽然留下了深刻的印象,但不足被视作威胁。为消费者使用推出具有竞争力的LLM模型是一回事,但推出更广泛的AI基础设施又是另一回事。”Daniel Ives说道。

英伟达也对此回应称:“DeepSeek是一项卓越的人工智能进展,也是测试时扩展的绝佳范例。DeepSeek的研究展示了如何运用该技术,借助广泛可用的模型以及完全符合出口管制规定的算力,创建新模型。推理过程需要大量英伟达GPU和高性能网络。如今我们有三条扩展定律:持续适用的预训练和后训练定律,以及新的测试时扩展定律。”

需要指出的是,目前中国正面临美国持续升级的对华AI芯片及先进半导体设备出口管制政策,这也使得中国难以获取外部先进的AI芯片,也难以依靠内部制造先进的AI芯片,因此这也迫使DeepSeek另辟蹊径,抛弃常规的依赖于堆算力的技术发展路线,并获得了成功,打破了美国对于中国AI的封锁。

面壁智能首席科学家刘知远在朋友圈发文称,“DeepSeek最近出圈,特别好地证明了我们的竞争优势所在,就是通过有限资源的极致高效利用,实现以少胜多。2024年很多人来问我,中国跟美国的AI差距是扩大了还是缩小了,我说明显缩小了,但能感受到大部分人还不太信服,现在DeepSeek等用实例让大家看到了这点,非常赞。”

“AGI新技术还在加速演进,未来发展路径还不明确。我们仍在追赶的阶段,已经不是望尘莫及,但也只能说尚可望其项背,在别人已经探索出的路上跟随快跑还是相对容易的。接下来我们要独立面对一团未来迷雾,如何先人一步探出新路,是更加困难和挑战的事,需要我们更加百倍投入、百倍努力。”刘知远说。

当然,DeepSeek的成功并不是闭门造车的结果,而是博采众长,吸取了众多前人的经验(比如开源的PyTorch和Llama),这也是为什么DeepSeek的大模型也采用了开源(open-source)的模式。

图灵奖得主、主导Meta AI研究的首席科学家Yann LeCun就指出,DeepSeek 成功的最大收获,是AI开源的价值使任何人都能受益。

“对那些看到DeepSeek表现并认为‘中国在AI领域正超越美国’的人而言,你的解读错了,正确解读应是‘开源模型正超越专有模型’。DeepSeek 从开放研究和开源获益良多(如同PyTorch和Llama),他们提出新想法,并从其他人的工作基础加以建构。他们发布新的模型并开源,所以每个人都能从中受益,这就是开放研究和开源的力量。”Yann LeCun说道。

相关文章《》

编辑:芯智讯-浪客剑

0 阅读:2

芯智讯

简介:专注于手机、芯片、智能硬件等相关领域的行业资讯报道。