大模型,还有比降价更重要的事?

数智前线 2024-05-28 19:00:11

相比于降价,客户尤其是央国企和政务客户更在意的是模型落地的效果,以及是否能真正解决业务场景中的问题。

文|游勇

编|周路平

一场大模型的降价/免费潮,让外界看到了这个赛道的内卷现状。

整个5月,行业基本都被各大模型厂商和云厂商的降价信息包围,先是幻方量化旗下DeepSeek发布的第二代MoE模型开始降价,接着是智谱大模型宣布了新的价格体系,入门级产品降价幅度高达80%。

很快云大厂开始接力,火山引擎宣布豆包主力模型在企业市场的定价比行业便宜99.3%,大模型价格进入“厘时代”。数天后,阿里云宣布其主力模型全数降价。

百度智能云干脆直接宣布年初刚发布的两款轻量级模型ERNIE Speed和ERNIE Lite全⾯免费。腾讯云亦有类似的跟进动作。

拨开这些市场策略的浮云,更应该让用户真正用起来,获得业务价值。而如何满足用户快速训练行业大模型,快速搭建AI原生应用的需要,则进一步考验大模型厂商的技术能力和对行业的理解能力。

01

降价背后的逻辑

这次的降价潮让不少开发者叫好的同时,在市场端也引发了不同的声音。

有业内人士告诉数智前线,现在的大模型价格战,很多大厂是不得已而为之,不跟进很容易在市场声量上落于下风,但市场远没有到比拼价格的时候。

“噱头大于实际。”上述人士说,除了用户量大的互联网公司,其他客户“可劲造”,一年也消耗不了十万块钱。但大模型厂商选择价格战的大多是轻量化模型,很难支持互联网公司的大并发业务。

其实,大模型在当前发展阶段,客户和开发者更在意模型是否能真正解决业务和真实场景中的问题,是否足够健硕和可靠,价格并不是最核心的考量。

一位政务客户明确表示,政府客户并不会仅仅考虑模型价格,更多是从价值、数据安全等角度考虑,而且更倾向于采用闭源模型。

对于这次价格战,创新工场董事长李开复就评价,“我觉得大模型公司不会这么不理智,因为技术是最重要的,如果技术不行,纯碎靠贴钱方式去做生意,我们绝对不会跟这样的定价做对标。”

这也是百度的逻辑。百度方面透露,此次免费政策并非临时决定。百度在过去一年,一直在通过工程优化持续降低模型的推理成本。而且在降价政策发布前,内部还制定了专项保障策略,以确保短时间大量涌入的新客户的使用体验。

“其实我们决定免费的原因特别朴素,就是希望⼤家别再天天拉表格、⽐价格了,把精⼒放在卷场景、卷应⽤上。在这么低的成本下去⼤胆创新,快速验证、快速跑通、快速复制。”百度执行副总裁、百度智能云事业群总裁沈抖在5月28日举办的智能经济论坛上直言。

百度希望通过开放免费模型,让更多企业和开发者尝试和体验大模型的价值,激发更多想象力,从而带来AI原生应用的爆发。

所以,这次百度选择免费的是两款模型,而并非所有模型。这两款模型适用于垂直场景的定制训练。

这样做的好处在于,即便没有跑通,也不用担心沉没成本,极大地降低了使用大模型的门槛。而如果效果反馈不错,随着业务规模不断扩大,往往需要用到更高阶、更高并发的版本,而这些版本都是要收费的。

有人形容,现在的大模型免费像是超市里的新品试吃,当消费者对新产品没有认知时,免费试吃就是一个很好的手段,尝试的人多了,后续愿意买单的人也会多起来。

大模型也是如此,这个赛道仍处于市场培育阶段,大多数企业并没有应用大模型。短期看,部分模型免费或降价,有助于推动客户和开发者快速去验证和试错。但长期来看,模型厂商最终竞争的还是模型本身的能力,只有把基础模型效果做得足够好,才能构筑竞争壁垒。

当然,价格战背后除了市场策略的考量,更关键的是技术进步和产品优化,从而推动成本的降低。

这次大模型价格战中,还有一个明显的趋势是模型的推理价格也在快速下调,降价幅度少则百分之二三十,多则百分之九十多。

为了降低推理的成本,百度在芯片效能和模型算法等技术层面下了很多功夫。

比如在芯片层,百舸AI异构算力平台屏蔽了底层差异,实现了一云多芯,支持对昆仑芯XPU、昇腾NPU、海光DCU、英伟达GPU、英特尔CPU等国内外主流AI芯片的兼容。一云多芯是目前企业出于供应链安全考虑普遍采用的架构,而如何调度这些异构芯片算力,一直是个考验。如今,百舸异构算力平台在多芯混合训练中,做到了单个芯片的利用率最高、芯片间通信效率最高、集群效能最高。

在模型和算法层,百度推进了推理相关算法的研究,包括混合精度压缩、共享模型基座、并行动态插入等。

同时,百度提供了不同尺寸的大小模型,覆盖不同的推理性能和成本,从而满足不同的业务场景。用户可以根据实际需求和资源状况,灵活组合各类尺寸的AI模型,以达到最优的效果和成本收益。比如,小度通过模型路由方案,将大小模型组合调度,相比全部使用文心大模型的旗舰版,响应速度提升了2倍,成本下降了99%。

这些技术的优化,都在为今天模型的降价和免费打下了基础。

02

比降价更重要的是什么?

相比于价格,大模型被讨论更多的是缺乏爆款应用,以及未能在核心业务中广泛应用。如何让大模型真正在业务场景中用起来才是当务之急。

过去半年多,百度一直在强调卷场景、卷应用。百度创始人李彦宏更是在多个场合呼吁“卷大模型没有意义,卷应用机会更大。”在不久前的法国巴黎举办的“欧洲科技创新展览会”上,李彦宏也谈到:中国AI与西方的最大差别在于应用。

而通用大模型虽然参数量大,但不易部署,成本高,还容易出现幻觉问题,很难在琐碎且复杂的场景中发挥价值。所以,大家都在往行业大模型发力,加入大量的行业Knowhow。

为了帮助企业快速搭建行业大模型以及构建各种AI原生应用,5月28日,百度专门升级了千帆大模型平台的行业增强版。

与之前相比,千帆行业增强版一个非常显著的变化是,增加了行业模型、行业知识库和行业智能体等行业属性的能力。比如在交通领域,通过内置交通”老专家”的能力,大模型可以实现对事故的场景分析、法条匹配和责任判定,效果远高于传统方法。

此前,很多行业大模型往往是通过小模型精调出来,这些模型孤立存在,效率低,烟囱效应明显,本质上和传统的AI开发没有区别。

“只有把这些行业模型和通用大模型放在一起,让通用大模型的理解、生成、逻辑、记忆的能力,和行业模型的专业能力结合起来,才能真正发挥大模型在业务中的价值。”百度智能云副总裁刘斌说。

千帆行业增强版,由一个通用大模型和多个行业模型组合而成,整合了应用服务、模型服务和资源服务等多层能力。

这是一整套端到端的能力,从底层开始,提供了多芯适配,端边云一体化,多元的行业数据的融合。到模型服务层,提供面向行业的知识和专家模型。到应用服务层,预制了行业应用的开发模板以及开发中心和应用商店,赋能伙伴或者客户去快速开发应用,实现智能化转型。

一位百度内部人士告诉数智前线,以前客户训练行业大模型,也会用到行业知识,但都是自己调,现在等于是百度把行业属性的能力调好,做成了预制菜,目前主要在政务、交通和工业等百度有足够行业knowhow的赛道推出了行业增强版。

比如在⼯业领域,中化信息基于百度千帆AppBuilder打造了“化⼩易”知识助⼿。它能基于⾃然语⾔提问,快速检索并回答分⼦特性、分⼦合成路线等专业知识,替代了传统的⼈⼯查询⽅式。⽬前,特定分⼦的检索效率能够提升5倍以上,提⾼了研发⼯作效率。

而厦门市规划数字中心也基于千帆的AppBulider,快速利用原有的知识库搭建了一个对答如流的智能小助手,为有用地需求的客户、企业解答土地规划相关的问题。它不仅无需花大量时间做数据准备和前后端的设计,而且知识库里没有的内容,也可以调用搜索组件。

不难发现,大模型在不同行业的应用落地,是当前行业更加关心,也是比降价更有价值的事。

03

百度的飞轮效应

5月28日,在2024智能经济论坛上,沈抖透露了一个数据,国内98家央企里,一半以上使用了百度的大模型平台或者服务。而当天的论坛也吸引了大量来自全国各地各行业的央国企和政府客户代表。

作为在大模型领域深度布局的厂商,百度智能云在过去一年凭借大模型拿下了不少政企大单。

根据公开招投标信息的统计,今年前四个月,百度智能云中标的大模型项目数量和金额都是最多,覆盖了电网、保险、城市治理、车网等领域,其中百度智能云中标的全国总工会机关服务中心项目,金额达到3158万元。

不同行业的一些业务场景已经开始尝到大模型的甜头。比如贵阳交管局与百度智能云在当地的31个关键交通节点部署了AI信控系统。通过引⼊交通信控⼤模型,对各路⼝、各流向的交通流量进⾏精准感知和预测,动态调节路⼝信号灯时⻓,环节交通拥堵。⽬前,贵阳市⼯作⽇⻋均延误时⻓下降多达15%,全国城市拥堵排名也从过去的第4位,下降⾄第20位。

全国总⼯会联合百度智能云打造了AI法律咨询助⼿,为劳动者提供精准的法律问题解答、快速计算劳动赔偿⾦额、⽣成个性化案情评估等便捷服务。双⽅基于千帆平台精调出⼯会⾏业⼤模型,配合专有云的部署⽅式,既保证了模型效果,⼜满⾜了数据合规要求。相较于传统的开发模式,整套系统及应⽤的交付周期从3~6个⽉⼤幅缩短⾄1个⽉。

百度内部业务也是如此,早早开启了大模型对搜索、APP以及广告系统的改造。百度管理层曾表示,百度利用大模型增强了广告的定位能力、竞价系统。使用此平台后,广告客户转化率提高了22%,销售线索获取成本降低了5%。预计2024年之后生成式AI和基础模型的广告收入将持续增长。

百度文心大模型的先发优势非常明显。作为国内首个推出类ChatGPT产品的公司,文心一言在去年初发布后,便受到持续的关注,经历了多个版本的迭代。2024年4月,文心大模型每天的API调用量超2亿次,去年12月,这个数字还只有约5000万次。这说明用户的增长飞轮正在成型。

真实的调用量是大模型赛道的一个关键指标,一方面,会在未来带来非常可观的推理收入;另一方面,客户在使用过程中提供更多反馈,推动模型的迭代和对市场痛点的精准把握。

而且,相比于其他厂商,大模型已经在为百度智能云带来实打实的收入。根据百度2024年第一季度财报,百度智能云营收47亿元,其中生成式AI营收在智能云总营收中占比6.9%。而这部分收入主要来自模型训练。随着模型推理收入快速增长,大模型服务将给百度智能云带来新一轮的增长。

李彦宏判断,百度2024年生成式AI和基础模型的增量收入将高达数十亿元。

如今,当不少厂商才刚推出MaaS平台时,百度智能云已经构建起了大模型的全栈技术服务体系:底层有百舸AI异构算力平台和不同模态和尺寸的文心大模型,提供智能算力和基础模型服务;中间层有千帆服务平台,帮助企业训练行业模型,以及提供搭建AI原生应用的能力;上层有各种场景的应用,满足海量个性化需求。

在多个公开场合,沈抖给大模型的发展讲过一个毛竹生长的故事,这种竹子在早期几年都在地下拓展根系,但一旦破土而出,毛竹就会在数周之内长到十几米的高度。

大模型正在酝酿破土而出的力量。百度凭借在通用大模型上的先发优势和十几年的AI投入,已经在用户数量、落地应用和大模型收入上形成了飞轮效应,这种效应的价值将在后续构建AI应用生态和规模收入方面得到进一步显现。

0 阅读:6

数智前线

简介:关注数字化、云计算、智能硬件。