美AI优势加速崩盘,中国新模型无视封锁,或倒逼英伟达产能过剩?

科技也有向知评 2025-02-02 05:10:36

中国版OpenAI两大新模型横空出世,直接让美国AI的领先优势瞬间崩盘,同时也证明了美对华费尽心思的AI封锁已经彻底失效。

2024年1月22日,美国互联网巨头Meta的一名员工在社交媒体上吐槽,称来自中国突然蹦出来的DeepSeeK-V3和DeepSeeK-R1大模型让Meta的AI部门陷入了恐慌。

因为Meta最新研发的AI模型Llama4,在与中国DeepSeeK大模型的较量测试中完全处于下风。

现在Meta人工智能管理层让工程师疯狂抄袭DeepSeeK大模型公开的任何东西。

因为管理层任何一位领导的收入都比DeepSeeK-V3的研发费用高,所以他们急迫的在寻求能证明自己大模型的天价费用是合理的。

这位员工的吐槽一时引爆美国人工智能圈子的舆论。

中国DeepSeeK-V3的研发费用到底有多低呢?

答案是仅仅只需要558万美元。

而扎克伯格的这个Meta公司已经用35万个全球顶级AI GPU计算卡——H100,打造了一个AI模型超级军火库。

后续Meta公司将继续砸125亿美元,将自家模型的GPU库扩大到50万块H100。

但让Meta和美国一众AI公司崩溃的是,DeepSeeK-V3仅仅只用了2000多块H800 计算卡。

要知道在美国的AI芯片围锁下,H800是英伟达阉割H100后专供给中国企业的,数据传输速度差不多比H100慢了一半。

但是DeepSeeK-V3模型训练过程的计算量仅仅只有Meta公司Llama3模型的1/15。

DeepSeeK-V3是去年12月底中国DeepSeeK深度求索公司突然推出的,当时一炮给国内外的AI公司干蒙了,如果用全球主流AI模型训练的过程看这东西,那真的没法理解。

DeepSeeK-V3一经推出,性能水平活生生将Meta公司拉下了开源模型第一的宝座,而在全模型全球排名中高居第七,在中国国内更是毫无疑问的最强模型。

这还没完,2025年1月底深度求索再度扔出王炸,发布比DeepSeeK-V3更猛的DeepSeeK-R1模型,直接将中国整个AI行业的顶尖水平几乎拉到了跟美国齐平的高度。

中美AI行业至此已经步入白热化的竞争阶段,而DeepSeeK-V3已经将美国AI圈捅了大窟窿。

现在全世界最顶的理科、逻辑推理模型是OpenAI在去年12月初推出的OpenAI o1,DeepSeeK-R1模型就是直接对标OpenAI o1的。

但是DeepSeeK-R1输入和输出的价格要比o1低96%左右,说性价比吊打o1一点也不为过。

现在美国AI圈像谷歌、OpenAI和Meta公司最害怕的是什么?

害怕的是万一投入海量的资金和硬件训练的大模型,一旦未能及时投入到商用,或者在性价比上被中国模型吊打的话,那么他们的前期投入将功亏一篑。

但是美国人最害怕的一幕开始浮现了,DeepSeeK模型确实能称得上价格屠夫,仅仅用558万美元、2000多块H800计算卡,就干成了美国企业投入上亿美元的事儿。

一旦投入市场使用,中国模型势必在同等的性能上,以价格优势碾压美国一众AI模型。

一旦美国AI企业即将面临有价无市的风险,那么就会反过头来倒逼提供计算卡硬件的英伟达产能过剩,以此动摇英伟达的根基。

那在美国从硬件和生态上对华全面断供围堵的情况下,DeepSeeK-R1模型是如何突破美国AI硬件封锁的呢?

OpenAI刚火的那一阵,国内AI产业和互联网可谓是一片哀嚎,国内互联网巨头接连模仿Chatgpt,都只学到了毛皮。

等到国内企业开始大量采购英伟达A100、H100芯片时,美国一纸禁令又给了刚刚起步的中国AI芯片产业沉重打击。

其实很多内行人都明白,中国AI是永远无法在AI芯片硬件和生态上追上美国AI的。

想要有资格跟美国较量博弈,就必须换一种研发的思路,美国人没想到的地方做大做强,也就是我们常听的弯道超车。

这几天我尝试用了几次DeepSeeK-R1模型,它解题时会将自己的思考过程、推理方法展现出来,几乎接近于人类的思考模式。

其实这就是DeepSeeK-R1模型很美国模型最为不同的地方,美国模型更侧重人类不断的训练、喂知识、不断的教,而DeepSeeK-R1已经过渡到“自己悟”的阶段。

或者说不像OpenAI那样什么都往里面喂,DeepSeeK更倾向于思考后有选择性的喂,再加上自研的DeepSeeKMoE架构,将训练方法彻底革新了一遍。

DeepSeeK也像世人证明了,在保证性能的前提下,人类进行AI模型的研发、训练,已经不再需要大量的GPU集群。

所以说DeepSeeK模型动摇的英伟达的根基,一点也不为过。

而就在DeepSeeK-R1模型发布的第二天,懂王拉着日本软银、美国AI研究中心和甲骨文三家公司,计划是砸5000亿美元(近3.6万亿元)搞一个“星际之门”的宏伟计划。

这个计划就是要在美国本土大力新建人工智能基础设施,全方位提高美国AI的水平,以及探索面向市场的实际应用,彻底击败中国等新兴AI市场。

现在的问题是,美国AI产业界基本都在质疑这个星际之门到底能不能落实5000亿美元,像马斯克就公开质疑日本软银根本没那么多钱。

特别是中国DeepSeeK-R1模型刚在前一天发布,对于5000亿美元的耗资到底是否过于庞大,美国人已经开始自我怀疑了。

2024年全球AI领头羊OpenAI已经亏了50亿美元,而且根据估测,截至2026年年底,亏损的规模甚至将超过150亿美元。

主要还是因为OpenAI投入了大量的资金用于购买GPU硬件,以及模型训练、电力消耗等等,但AI模型离实际应用其实差了一大截距离。

所以中国DeepSeeK模型给全球打开了一种思路,就是开源节流,缩减成本,美国人那一套GPU超级库和高预算投入,其实并不是通往AI训练的唯一道路。

0 阅读:0

科技也有向知评

简介:感谢大家的关注