DeepSeek的崛起,已彻底终结英伟达的股市神话?

听听心的新声 2025-03-12 16:21:22
新闻简述:

2025年1月27日,英伟达股价单日暴跌17%,市值蒸发近6000亿美元,创美股历史最大跌幅纪录。这一震荡的原因直指一家中国公司——DeepSeek,其开源的AI模型以极低的训练成本实现了与OpenAI旗舰AI产品相媲美的性能,引发全球对算力需求逻辑的重新评估。

2月5日,斯坦福大学网络政策中心发表了一篇文章,对DeepSeek带来的影响进行了深入分析[1]。

原文播报:

文章认为,DeepSeek如今的成功很大程度上源于“创新”。

DeepSeek由创始人梁文峰于2023年创立。起初是一个副业项目,但迅速发展起来。该公司不断聘请来自中国顶尖大学的年轻人才,并采用了扁平化的组织结构,从而实现了自下而上的创新方式。在一些专题报道中,梁文峰就曾分享过他对中国人工智能创新的愿景,强调中国公司需要专注于创新,而不仅仅是跟随现有模式[2]。

事实情况也的确如此,DeepSeek的成功创新,也归因于其专注于开发适合中国“有限获取先进人工智能处理芯片现状”的新模型结构。文章对比了中国和美国在人工智能发展方面的不同方法:虽然美国专注于利用最新的GPU芯片扩大基础设施规模,但中国却因面临美国的出口限制政策,不得不强调创新优化以充分利用有限资源。

DeepSeek的成功挑战了美国人工智能行业“越大越好”的心态,堪称一项通过算法创新与工程优化实现的“低成本高效奇迹”。

背后故事:

当然,斯坦福的这篇文章也并非全是褒奖,在谈及DeepSeek的训练成本时便提出了质疑。根据DeepSeek的技术报告,其模型训练使用了2048个英伟达H800 GPU集群,总共消耗了278.8万GPU小时,基于每GPU小时2美元的租赁价格,成本约为557.6万美元。但这一数字显然并不包括先前研究和实验相关的成本。文章因此对DeepSeek宣扬的“高性价比”主张提出了隐晦的批评。

而有意思的是,1月31日,来自斯坦福大学自己的团队,宣布仅花费不到50美元的云计算资源,以阿里通义Qwen2.5-32B-Instruct为基础模型,通过SFT监督微调方式,最终训练出与OpenAI o1相当的开源推理模型s1,这无疑又证明了DeepSeek所开辟的低成本道路的确是切实可行的[3]。

此外,该文章也不忘在数据传输、信息安全、虚假信息问题、“蒸馏”技术的侵权使用等方面表达了一些担忧与负面看法。

小编短评:

当算力崇拜的泡沫被捅破,当600万美元的成本导致6000亿市值蒸发时,也许整个AI业界看待DeepSeek的目光,也都如这篇文章所呈现的这样——赞赏、纠结、担忧且复杂。

参考信源:https://cyber.fsi.stanford.edu/publication/taking-stock-deepseek-shock ↑https://finance.sina.com.cn/tech/2025-01-26/doc-inehhksk9178057.shtml ↑https://mashable.com/article/openai-o1-reasoning-model-rival-less-than-50-dollars ↑
0 阅读:0

听听心的新声

简介:感谢大家的关注