中国国产大模型震惊硅谷。
从斯坦福到麻省理工,Deepseek R1几乎一夜之间成为了美国顶尖大学研究人员的首选模型。
AMD宣布,已将新的DeepSeek-V3模型集成到Instinct MI300X GPU上,该模型旨在与SGLang一起实现最佳性能,DeepSeek-V3针对Al推理进行了优化。
一名美国Meta的员工发文,因为DeepSeek的低成本高性能,他们公司的人工智能部门已经陷入恐慌。并称,从中国深度求索公司发布DeepSeek-V3模型开始,Meta公司重金打造的Llama 4模型,在双方的性能测试中,就没有打赢过!
在美国匿名职场论坛TeamBlind上,一名Meta公司员工发帖表示:“Meta生成式人工智能部门陷入恐慌。”
美国《商业内幕》网站此前报道称,DeepSeek这家创新实力超群的中国人工智能初创企业发布了新的人工智能模型DeepSeek-R1,完全可以媲美OpenAI的o1模型,其推理能力令美国科研人员感到震惊,证明了美国的技术优势绝非不可撼动。
cnbc官媒在十几个小时前上线了一篇长达40分钟的视频纪录片,是关于deepseek的。有条件的可以去看看,cnbc认为这个事情超出了他们的认知,颠覆了他们对AI的常识。
CNBC的报道中指出,deepseek完全是幻方资助,没有外部融资,而且是开源所有模型。而且在多项测试中超过了OpenAI的同类模型。然后使用的是低功耗的H800芯片。通过蒸馏大法,仅花费了500万美元。远低于Mata公司AI部门任何一位高管的年薪!这种在成本上的巨大差距,彻底击溃了美国科技界的认知。
为什么说颠覆了他们的认知呢?
我们知道,关于人工智能发展最重要的三大因素——算法、算力和数据,中国本来就只在算力方面落后,主要原因是美国限制台积电为华为代工人工智能芯片,并限制中国购买最新的英伟达显卡。
而美国国内的AI的一个基本认知是,算力是AI的核心,发展AI就是要不断的堆算力堆GPU,认为硬件才是核心竞争力。所以OpenAI兴起的时候,全世界一片热捧,成就了英伟达。
美国在AI的固有认知下,一直沿袭着堆算力堆GPU的路子在发展AI大模型。与此同时,不断在AI领域卡中国的脖子,中国企业越来越难获得高性能AI芯片。只能使用价格高昂、性能低下的阉割版AI芯片,在这种固有认知下,认为这不但极大推高了中国人工智能企业的成本,还会让中美两国相关企业的差距越拉越大。
但如今,DeepSeek-R1是在美国政府不断加大对中国人工智能领域“卡脖子”力度的背景下诞生的,DeepSeek的超赶秘方是什么?就是创新的工程设计与高效的训练方法,R1完全抛弃传统监督学习(SFT)路线,以在有限的运算能力中实现高性能,纯靠强化学习就达到了与o1相当的水平。但是,它的训练成本极低。它只用了1024张英伟达H800显卡,花费只有560万美元。作为类比,OpenAI的ChatGPT-o1使用了至少一万张更为先进的英伟达H100显卡,其成本大约为1亿美元。
有媒体形容,这可能是大语言模型的典范转移,今后的AI发展重点在于不依赖庞大的运算资源下创造高质量产品。
Deepseek火了,英伟达的天塌了
也就是说,中国这家初创公司以极少的算力、极低的成本,便能达到美国企业纯粹靠堆算力才能达到的效果。被捧了几年差点被称为人类之光的英伟达,现在面临一个最大的麻烦是,现在整个硅谷可能意识到过去“堆算力的路子可能跑偏了。deepseek验证AI绝不是堆硬件!算法在前,算力在后,而不是反过来。
一个是四两拨千斤,一个是力大飞砖。这相当于直接告诉国外的硅谷大厂,大模型压根不需要大规模显卡集群,你们的钱白花了。DeepSeek-R1大模型的出现,英伟达的天塌了,这对英伟达和CPO技术是绝对利空,在美国禁先进AI算力卡的背景下,中国可以采用英伟达20%左右的国产算力卡来与美国竞争了。
这个事情可以类比当年AMD搞多核的时候,INTEL搞了多核加超线程,主核比AMD的多核少,但由于并行执行效率高,能耗又低而打的AMD根本找不到北,后面多年AMD都在垂死的边缘。所以说大力飞砖的很可能走了笨路子。
美国那边在大力出奇迹,拼命卡我们这边,但我们没那条件,就死命架构创新,降低推理成本,如今在美国的疯狂制裁,又逼出一个中国创新故事。
因此,如果大模型全靠堆算力,那中国的人工智能企业最终基本都得凉凉,但现在中国的国产大模型创新其实已经宣告了英伟达的麻烦可能要大了,因为它表面上看起来挑战的是AI大模型,事实上挑战的是英伟达——英伟达不但是OpenAI的投资者,更是其最大的芯片供应商。更是OpenAI以及整个全球AI产业发展过程中,最大的受益方。
但现在,美媒以及硅谷科技界担心DeepSeek的低成本开发模式可能会推动全球AI行业重新评估硬件需求和投资策略,堆算力的模式或将成为过去式了。
威胁英伟达的,不是另一个英伟达,而很可能就是这家AI大模型初创公司,它改变了游戏规则,把过去值钱的东西变得不值钱。
全新的中国大模型DeepSeek-V3,最有可能的结果是,导致人们不需要用那么多的成本和那么昂贵的芯片,就可以更快地训练自己的AI。
当下,中国AI芯片公司的产品很多已经不弱于英伟达H800,有的甚至在性能上远超H800。这意味着,使用中国AI芯片的中国大模型,完全可以不逊色美国顶尖大模型。而且中国的成本更低,对中小企业与开发者而言,中国的高性价比AI,降低了进入门槛,形同扩增了选择性。
而硅谷巨头们也会加入到中国的玩法与游戏规则中来,否则根本就打不过了。
因此,这对行业的影响是,他们根本不需要去堆GPU了,硬件方面的确定性变成了没那么确定。高性能AI芯片的红利期可能要过去了。英伟达的天塌了,或许黄仁勋也没有想到,有一天他也会遭遇到跨界打击的命运。
早就说过:跟着美国没有好下场!!让英伟达见鬼去吧!!让黄仁勋见鬼去!!
换个角度去思考[赞][赞][赞]!中国🇨🇳华夏文明五千年历史悠久、2024-2035教育强国战略部署,决定五星聚东方利中国[呲牙笑][呲牙笑][呲牙笑]!
今天美国崩了 明天英伟达天塌了 后天小日本吓尿了 我们是宇宙最强。[得瑟]
这就像华为的芯片不如高通芯片先进,但做出来的手机比高通做的更流畅,功耗更低等等
DeepSeek R1于海外AI圈掀起波澜,风光之际质疑不少。即便基于开源,能低成本训练强人工智能,实则本事不凡。质疑者或许心存嫉妒,技术突破本就需创新,不应因质疑否定其价值。 质疑声提醒DeepSeek R1团队需自证实力。其开源意义重大,公开模式打破OpenAI算力垄断,终结英伟达算力神话,让全球科学家不再依赖英伟达,这才是开源关键价值。
不懂就问,因为是开源的,如果他们切换到这个赛道和思路,而算力还是他们领先,是不是他们的模型还是比我们好呢?
百花齐放[点赞]
波士顿的机器人也跑偏了,中国人的聪明真的是没得说,学啥象啥,还能创新。
别小看了中国现在的模仿能力,绝对世界第一,你敢创造出来我就敢模仿,而且搞不好比你更好。但前提是你要先创造出来[得瑟]
[笑着哭]过段时间看还吹得起不
人家压根没当回事,硬件差距太大!H800已经落后太多了!
美国天在头条塌了不下一万次!
英伟达的估价腰斩了我就信你
与英伟他有什么关系?科技白纸
大伙看完嗨起来。回家多吃个馒头。
你问下现在离过年还有几天
华为公司芯片碾压英伟达,台积电,AMD,微软公司,三星公司。
此文如果真实可信,那便是中国人工智能发展之福!
基础依然是英伟达的H800芯片,用了1024块H800,如果换成华为的芯片才是值得庆贺的事情!
为什么会踏呢?想不明白
显卡能降价就好
商业大战上线了,各种吹AI,说的很多人用一样,还不是要靠开源来抢用户,等到同行全嘎了,就到割韭菜的时候了[大笑]
老祖先的智慧,我们是系统性,统一性,思考问题,看问题,解决问题!肯定超过他们!
应用到军工军事
所以是否聪明,不是比谁的脑容量大!