“东方神秘力量”一夜爆红,多家海外主流媒体密集报道,引发硅谷恐慌!中国AI大模型公司DeepSeek发布新模型,引发全球AI科技圈关注及热议。
2025年1月20日,我国AI大模型创业公司DeepSeek(深度求索),发布新模型DeepSeek-R1并同步开源模型权重,引来国外主流媒体集中报道,高度评价该款模型并称“东方神秘力量引发硅谷恐慌”。模型推出后备受好评,访问量过大以致服务器短时闪崩,DeepSeek-R1到底有多强大?
神秘东方力量,冲击硅谷AI圈近几年来,大语言模型(LLM)逐渐发展成AI圈子的焦点,其通过快速迭代和演进,逐渐缩小了与通用人工智能的差距。
在所有的大语言模型中,最知名的当属OpenAI的ChatGPT。2018年推出后,惊艳了全球科技圈,时至今日依然是大语言模型中的佼佼者。
发布以后,GPT模型不断迭代升级,规模迅速扩大性能提升明显,最新的模型可以执行多种复杂的语言任务,如写作、翻译和实时问答等。
GPT的成功,也引发了国内科技大厂跟风,百度的文心一言,阿里巴巴的通义千问等大模型,也具备强大的语言理解和生成能力。
不过在实际使用过程中,国内的大模型存在各种各样的问题,声称专注于中文语言理解和生成的文心一言,也闹出过不少笑话。
曾经有网友通过文心一言,创作一幅“胸有成竹”的图画,最终输出的结果是一个人胸前绑着竹子,果然是“胸有成竹”的字面意思。
后来有人分析,文心一言最底层的逻辑,依然是英文语境,需要把中文翻译成英文,然后通过算法输出结果。
中国的成语恰恰是英文很难准确表达的,毕竟翻译界有一个说法,一旦遇到“中国有句古话”这句开头时,每个翻译都开始提心吊胆。
在和国外大语言模型竞争过程中,国产的大模型基本败下阵来。最近,国内创业公司DeepSeek的新模型,让国人看到了超越的希望。
DeepSeek,成立于2023年7月17日,全名为杭州深度求索人工智能基础技术研究有限公司,是一家专注于开发先进大语言模型的创新型科技公司。
公司技术团队以清华大学、北京大学的应届生和实习生为主,平均年龄不足26岁,就是这样一群年轻人,天马行空的创意,引领了中国大语言模型的发展。
2024年12月26日,DeepSeek-V3一经发布就引发业内关注。AI数据服务公司Scale AI创始人Alexander Wang,称这一模型是“中国科技节带给美国的苦涩教训”。
之所以如此评价,是因为Alexander Wang认为,中国科技界正在以“更低的成本、更快的速度和更强的实力赶上美国同行”。
V3发布之后不到一个月,2025年1月20日,DeepSeek又发布了性能更强大的新模型DeepSeek-R1。短时间内连发新模型,而且性能跨越式上升,难怪会吸引外媒集中报道,引发硅谷恐慌。
该模型使用了大量的强化学习技术,极大地提升了模型的推理能力,在极少标注数据的情况下,也能给出满意的答案,性能直逼OpenAI o1正式版。
引发硅谷恐慌的原因除了该模型的快速迭代升级外,还有一个重要因素是开发成本非常低。这群年轻的开发者,只用了557.6万美元就成功研发出DeepSeek-R1。
与之形成鲜明对比的是,筹集了10亿美元的“前沿”实验室,烧光投资开发出的大语言模型,还因为比不过DeepSeek而胎死腹中。
DeepSeek新模型发布后,很快就引起硅谷同行的关注,但对这种“花小钱办大事”的中国大模型,美国同行感到深深地无奈,称这是“神秘的东方力量”。
开源界新“王者”诞生?DeepSeek-R1发布后引发全球同行关注,图灵奖得主Yann LeCun认为,DeepSeek验证了“开源模型正超越闭源系统”。
DeepSeek-R1-Zero(实验版)通过单纯地强化学习(RL)训练实现推理能力,在数学、编程等方面,成功达到了接近人类专家的水平。
以数学为例,DeepSeek-R1-Zero参与解析美国数学邀请赛题目,最初准确率只有15.6%,经过自行强化学习后跃升至71%,通过优化又达到86.7%,与OpenAI基本持平。
DeepSeek-R1的训练方式,完全摒弃了传统训练过程中的监督微调步骤,而这一步骤,需要花费大量精力和时间,自然也需要巨大的资金投入。
所谓监督微调,就是使用大量以标注数据训练AI模型,这些数据包含问题、标准答案、思考步骤范例等,相当于给AI模型提供一个学习的路径。
这样的训练让AI越来越聪明,但同时也带来另一个问题,那就是奖励欺骗。当大模型足够“聪明”时,就会利用奖励函数中的漏洞和模糊性,来获取更高的奖励,就如人类的投机取巧一般。
表面上看模型获取了更好的奖励,由此可以倒推出模型完美地解决了问题,但实际上模型是在作弊,并没有真正完成预期任务。
DeepSeek摒弃了这一训练方式,单纯依靠准确性奖励训练模型,且奖励规则简单,让模型没有空子可钻。
DeepSeek的这种训练模式,极大地提升了训练速度,还让其在训练过程中学会了思考,甚至还会像人类一样“反思和顿悟”。
所谓的“反思顿悟”时刻,是DeepSeek在训练过程中突然停下,然后重新评估刚才的方式来调整问题的解析方向。
在处理一个复杂的数学问题过程中,DeepSeek就突然停下来,很拟人化地发出“感慨”,称刚得到的解析结果是“值得记录的特殊时刻”,随后又重新审视整个解题过程。
DeepSeek正在延续OpenAI的原始使命——真正开放、前沿的研究,赋能所有人。1月27日,DeepSeek-R1发布一周后,已经超越ChatGPT,登顶苹果APP Store美国区免费下载榜,在中国区排行榜上同样排名第一。
DeepSeek低成本高效率的研发模式,可能颠覆硅谷巨头的高投入路径,并且对英伟达、寒武纪等公司带来冲击。
在之前的AI领域,一直遵循“大力出奇迹”的规则,为追求更高的性能,模型体积不断膨胀,这就需要不断提升硬件的算力要求。
英伟达、寒武纪等公司,就为AI模型提供硬件支持。为了限制我国的AI技术发展,英伟达甚至向我国提供性能阉割版的硬件。
DeepSeek-R1的成功,打破了AI模型训练过程中对算力的苛刻要求,或者说算力需求从训练端转向了推理端,英伟达这种主要提供训练端算力的公司,自然受到巨大冲击。
大语言模型应用前景广阔,DeepSeek改变发展路径在日常生活工作中,很多人觉着大语言模型离自己很远,是根本不可能用到的东西,但实际上,大语言模型已经渗透到我们每个人的日常生活当中。
譬如我们遇到问题上网搜索答案时,现在搜索页面最顶端出现的内容,就是AI通过梳理全网知识,给我们筛选出来的解答。
每个人都需要上网搜索内容,自然也就会和AI打交道。除了这方面以外,AI在机器翻译、智能客服、写作辅助等方面也必不可少。
在机器翻译领域,大语言模型通过大量的训练,可以根据对话上下文和语义语境等因素,实现更准确的翻译。
在智能客服和对话系统中,大语言模型应用更加广泛。模型通过理解客户的问题,生成对应的自然语言予以解答,及时响应为用户提供自然流畅的交互体验。
现在想通过客服解决问题,先对接的很可能都是大语言模型,只有遇到模型实在无法解答的问题,才可能转到人工客服。
在写作方面,经过大量训练的大语言模型,已经不输人类从业者。创作小说、编辑新闻稿、写作营销文案甚至论文等,大语言模型都能轻松胜任。
尤其是营销文案方面,通过输入几个关键字词,很快就可以生成不同风格的各种文案,如果用户不满意,还可以根据具体的意见进行修改,这可比广告公司的策划文案强大太多。
对于网络写手来说,大语言模型还可以辅助写作,如文本续写、自动摘要、修改优化等,大幅提高作者的写作效率。
大语言模型应用广泛,是未来重要的科技项目,诸多科技公司在这一赛道上竞逐。之前,一直是OpenAI的ChatGPT独领风骚,国内虽然也有大语言模型,但一个能打的都没有。
直到DeepSeek-R1模型横空出世,才以一己之力改变了整个格局。DeepSeek低成本高性能的发展路径,对行业竞争产生了深远影响。
DeepSeek用最小的资源实现了最高的效能,改变了AI行业例“大模型需要大投入”的传统理念,证明了高效研发的可行性。
美国《福布斯》对DeepSeek评价称,其给OpenAI、Google等老牌巨头,带来了巨大的竞争压力。DeepSeek更低的成本,迫使其他参与者要么降价,要么进一步增强产品。
但无论竞争对手做哪种选择,都需要改变以往的发展思路。DeepSeek给业内带来了颠覆性的冲击,也有助于大语言模型普及,通过更多人参与训练而进一步提升性能,最终形成良性循环。