当腾讯接入Deepseek,意味着什么?

东西玛尼王 2025-02-21 07:56:39

本文为嘉宾供稿!!!

上周,于 AI 圈而言,最具震撼性的消息无外乎腾讯对微信搜索突然接入 DeepSeek R1 模型一事作出回应。 我们也好奇, 这家握着在手的公司, 也就是昨天。

腾讯表示, 将全量、IMA、腾讯文档、QQ浏览器、QQ音乐等多款产品, 在接入全量大模型的同时, 接入了Deepseek R1模型。

许多人非但低估了此事的影响,甚至对其背后所隐匿的逻辑仍处于懵懵懂懂的状态。在本期内容中,我会竭力以通俗易懂的形式向诸位分享一下个人针对此事的观点。

首先, 我们要明白, 决定AI产品的性能和效果的几个核心要素是:算力、算法和数据。

“Deepseek R1模型出来之前, 因为通用的SFT模型在训练时只使用了表观的专业数据, 让手机使用时需要的数据量大。 如果没有海量数据这个核心要素是必要的, 还需要足够的算力和算法去弥补它。 这就类似于有些金属在高温下会熔化, 而有些金属在高温下反而会更加坚硬, 这就是我们常说的“淬火”。

但算力和算法支撑起来的这种说法和OpenAI代表的表象业务上并不一样。 突然在看, 看到老头也甩开膀子跑。

最近1-2年间, 全球AI圈有个很火的概念, 就是训练大模型的AI不是在家里生长, 就是在实验室里生长。 其头部公司AGI的Stare估值:“我们现在是在井底, 还是在井底的社区(VIP)道路。”

这种表象的背后, 本质上就是OpenAI、微软等巨头利用它们本身所处领域的海量数据, 把这些数据用更高效的方式进行训练和使用, 从而实现更高阶的AI能力。 中小企业现在看不懂, 未来也看不懂。

那么问题来了, 这就解释我们看到了OpenAI这类大模型算法的答案, 接下来也会面临没有高端芯片算力和数据如何保障的问题。

那么怎么办?

Deepseek R1模型这个基础理论级产品, 就几乎完美的解决了这个问题。

简单说就是Deepseek在模型的底层结构和OpenAI走的是一条不同的技术路线。

OpenAI是靠堆算力的大模型来解决问题, 而Deepseek是靠把复杂任务拆解成小份, 然后分给不同的中小模型去解决任务, 而且这些模型之间还可以相互印证, 这就是它的核爆力——混合专家模型(MoE)。

如果用餐饮圈来打比方,

Deepseek和OpenAI就类似于美食街和米其林餐厅的区别。

米其林餐厅虽然菜品精致但价格死贵, 而美食街呢?

那简单, 你要吃啥告诉我, 我可以马上集各家所长的资源给你端出来。

除此之外, 以OpenAI为代表的大模型还存在一个万能算法适配的问题, 当模型参数量超过千亿级后, 每提升10%性能需要增加35%的算力投入。 这就像是给跑车装火箭发动机, 速度确实能提升, 但每公里油耗也会翻倍式的上升。

而Deepseek的中小模型“组合餐”呢?

不仅在成本上少太多, 而且协同工作的综合表现能轻松达到同等算力下单体大模型的90%以上。 这基本等同于用汽油机开出了重油超跑的表现, 并且Deepseek在这个分拆颗粒度上做了“基石计划”, 专门为中小型模型提供优化了后门。 这就像是给跑车装了一套智能驾驶辅助系统, 不仅跑得快还跑得稳。

所以, Deepseek的开放技术的态度更像是温和当下的实际情况决定的, 它需要通过开放来吸引全球开发者共建生态, 从“资本驱动”的业务策略走向“向算法创新”的效率革命。

这里多提一句, 也许很多人会有疑惑, 既然Deepseek可以开源, 为什么OpenAI不能开源呢?

理论上它也可以选择开源, 但因为它是算法大模型, 所以一个核心因素解决不了, 那就是成本。 按照现在的技术条件和Deepseek带来的产业革命, OpenAI一旦开源, 其成本就会有生命进入倒计时阶段。

那么, 我们现在再来看腾讯接入Deepseek这件事, 会发生什么?作为一个初创企业, 有了独到算法的Deepseek最需要的东西是什么?

当然是算力和数据。

首先我们看算力, 大家不要认为Deepseek就不需要算力了, 它只是对算力要求没有大模型这么高, 但并不代表它不需要算力。 Deepseek解决的是长尾问题, MoE带来的是长尾价值场景系价值。 请看前文讲的“万能算法”, 这种表象就是用户量特别分散的业务对Deepseek的需求。

抛开国外, 就国内目前情况而言, 算力在哪里?

毋庸置疑, 都在头部科技厂、运营商等互联网大厂里。 因为它们有钱有资源, 抢在第一时间拿到了资源。 所以, 它们接入Deepseek, 能够在第一时间用去处理解决的问题压力, 一定程度上也促进中国AI产业发展需求。

其次, 这三家互联网大厂手里握着了有算力外, 还有海量的C端数据。

比如腾讯, 在中国, 应用层的APP虽然很多, 但是坐拥10亿+用户的微信都绝对是老大哥。 而且微信还是生态综合体, 除了微信本身外, 它还集成了微信、公众号、视频号、QQ浏览器以及种类繁多的应用程序。 任何一个AI产品对这些数据资源, 那都是流口水。

虽然这些互联网大厂都在开发自己的AI产品, 比如文心一言、元雀、豆包、Kimi等, 但使用效果确实很一般。 算法是一方面原因, 但更主要的原因还是数据不足。

更关键的是, 一方面国内大模型的成长路线注定很长, 另一方面在我们国家这种缺乏芯片又没有彻底的AI数据下, 业务分散导致在实际AI里面就特别难搞清未来谁胜谁负的角色。

以AI现在的发展速度看, 我们真的等得起吗?

前面说了, Deepseek解决长尾问题中小模型还好多搞点数据。 在行业上就不难看出芯片圈里, 正是做一个“江门项目”生态。 同时, 在解决的过程中这个模式不仅可以匹配自身优势, 也能带动生态内的众多模型的价值发展。 双赢点被放大。 另外一个层面看, 如果Deepseek选择闭源模式, 大家没心情慢慢等把这个价值链的数据资源给你们吗?

所以,以微信为代表的资源接入Deepseek,不仅意味着从互联网时代到AI时代的过程中,中国产业的下半场同时意味着每一个国民无论是生态“建设超级AI大脑”的结果也好诞生。从开放中国的AI“向善”角度来说绝对利好。

更长远的看,随着未来可期的“马斯克星舰”实体概念走入上马、马化腾和马云等被安排坐在一起,更像是国家意志的一种体现。

目前除了腾讯外,包括阿里在内的多家公司也陆续加入Deepseek的应用行列,甚至华为、OPPO等品牌也表示考虑集成该平台。但正如前面所提到的,当公共大模型繁荣生态体系,重塑老大哥构建的算力服务,就算你买的安卓当年用开放策略,催生了iOS统治下70%的市场份额一样。

当然,在算法和内容数据集成后,我们也希望国产AI业务至少已经取得了优势,因为算力还是摆在面前的问题,我们还需要集中力量去做下端芯片这个领域。现在,我们先通过微信这个国民级应用进行行业测试,大家拭目以待。

0 阅读:0

东西玛尼王

简介:感谢大家的关注