百度搜索接入DeepSeek,国产芯片打破成本“紧箍咒”?

科技确有核芯 2025-02-18 21:06:38
电子发烧友网报道(文 / 吴子鹏)2 月 16 日,百度搜索正式宣布,为丰富多元化的搜索体验,将全面接入 DeepSeek 和文心大模型的最新深度搜索功能。同一天,腾讯方面向媒体确认,微信搜一搜也已开启灰度测试接入 DeepSeek。被灰度到的用户,可在对话框顶部搜索入口看到 “AI 搜索” 字样,点击进入后,便能免费使用 DeepSeek-R1 满血版模型。 目前,各领域头部企业基本都已宣布接入 DeepSeek,涵盖国内三大通信运营商、云计算领域的亚马逊、腾讯、华为,企业领域的比亚迪、吉利、长城,以及手机领域的荣耀、OPPO 等。不仅如此,DeepSeek 的 “朋友圈” 已不再局限于企业,深圳宣布政务平台全面接入 DeepSeek。 随着接入 DeepSeek 的企业越来越多,业内人士也开始担忧,接入 DeepSeek 可能成为企业的负担,造成数额较大的亏损。 DeepSeek 重塑搜索业态在国内搜索引擎市场,百度搜索是占据主导地位的传统搜索引擎,而微信搜索属于垂直搜索引擎。相关统计数据显示,目前百度在国内搜索引擎市场的综合占比为 52.79%。2024 年 11 月,百度在手机端搜索引擎市场份额为 67.99%,在桌面端搜索引擎市场份额约为 30.64%。 微信搜索虽因未被计入通用搜索引擎市场而缺乏统计数据,但它基于微信生态内的搜索功能,借助微信超 12 亿的月活用户,体量极为庞大。 作为国内通用搜索和垂直搜索的代表,百度搜索和微信搜索都选择接入 DeepSeek,主要是因为 DeepSeek 对搜索引擎具有很大的赋能价值。DeepSeek 拥有庞大的知识图谱数据库,涵盖各行业知识体系及概念关联关系,搜索时能呈现更丰富全面的信息。运用先进的自然语言处理技术,DeepSeek 能深入理解用户搜索意图,即使是模糊或复杂的关键词、句子,也能转化为清晰的查询,提供相关性更高的结果。 DeepSeek 能够优化用户搜索的个性化体验,通过分析用户的搜索历史、兴趣偏好以及当前上下文环境等因素,DeepSeek 能自动调整搜索策略,优先展示符合用户需求的内容,为不同用户量身定制个性化搜索方案。同时,DeepSeek 专注于减少无效链接展示,智能预测用户真正想要的信息。 接入 DeepSeek 的成本压力然而,在百度搜索和微信搜索接入 DeepSeek 之后,业内人士注意到,接入 DeepSeek 可能会给相关企业带来巨额亏损。与汽车应用和政务应用相比,搜索引擎接入 DeepSeek 所带来的使用量无疑更大,因此成本支出相当惊人。 目前,满血版 DeepSeek-R1 模型每百万 token 的收费为 16 元,若每日输出 1000 亿 token,即需处理 1,000,000 个百万 token 单位,那么单日成本就是 1600 万元,一个月的推理成本高达 4.8 亿元。而这只是 API 应用成本,实际运营中还需考虑算力资源、硬件类型及运营效率。有业内人士指出,为满足大规模 DeepSeek 的推理应用,需要构建大型智算中心以提供算力支撑,若采用英伟达 GPU 集群,成本通常在数亿美元以上。 由于 DeepSeek 的收费是 OpenAI o1 同等规模输入 15 美元(约 109 元人民币)和输出 60 美元(约 437 元人民币)的二十分之一到百分之一,被称为 “AI 界的拼多多”,但搜索引擎类型的应用是免费的,且用户体量大,大规模使用 DeepSeek 的成本依然不低。根据百度方面的数据,2024 年 11 月文心大模型日调用量已达 15 亿。假设平均每次调用输出的文本经分词后产生的 token 数量为 100 个(此为假设便于理解,实际因搜索内容不同差异大),那么一天输出的 token 数量约为 1500 亿个,如果这些搜索结果都由 DeepSeek 输出,那么百度要支付的成本就是上述结果的 1.5 倍。 无论是 API 费用层面,还是硬件部署层面,DeepSeek 爆火都揭示了一个真相:只有低成本的 AI 才能够真正普及。同时,业内人士对企业接入 DeepSeek 后的亏损担忧说明,无论是 DeepSeek API,还是部署 DeepSeek,都还不够便宜。在这个过程中,国产算力芯片有望凭借性价比优势进一步推动 AI 成本下降。 国产算力芯片价值凸显虽然 DeepSeek 使单个模型训练和推理算力需求有所下降,但技术的普及却带来了 AI 应用的爆发式增长。其全球日活用户在短短一个月内就从 34.7 万飙升至 1.19 亿。如此庞大的用户群体和复杂多样的应用场景,使得整体算力消耗大幅增加。同时,DeepSeek 的开源特性以及成本的大幅降低,使其能迅速渗透到教育、医疗、金融等众多垂直领域。在这些领域中,大量存在着低延迟、高并发的实时推理需求。为满足 AI 应用实时推理需求,智算中心的架构也在发生转变,从传统超大规模集中式建设转向靠近用户的分布式节点。 长期以来,英伟达等国际巨头凭借技术优势,几乎垄断了高端算力芯片市场,国产算力芯片在重重技术封锁与市场挤压下艰难前行。之前,国产算力芯片发展艰难的一个重要原因是 “性能不足”,难以满足 AI 大模型的训练和推理需求。不过,DeepSeek 改变了这一局面,并且DeepSeek 对国产算力芯片的带动是全方面的。 在训练环节,DeepSeek 通过模型架构创新(如 MLA、DeepSeekMoE 技术)和高效训练框架(如 FP8 混合精度、DualPipe 算法),大幅降低了对高端 GPU 的依赖,使国产芯片能够以较低成本完成模型训练适配。在推理方面,DeepSeek 在应用层面的推理环节,其模型压缩技术(如蒸馏模型)显著降低算力需求,使国产芯片在推理场景中更具性价比。 另外,DeepSeek 带来了大量的智算一体机需求。智算一体机作为一种高度集成、灵活部署且能有效满足多样化算力需求的解决方案,已经成为众多企业与机构部署 DeepSeek 的首选。这一市场已经成为厂商布局的重点,也是国产算力芯片发展的蓝海。据报道,目前京东云的 DeepSeek 大模型一体机已经广泛支持华为昇腾、海光、寒武纪、摩尔线程、天数智芯等多种国产 AI 加速芯片。 据统计,截至 2025 年 2 月,已有华为昇腾、沐曦、天数智芯等 17 家国产 AI 芯片企业宣布支持 DeepSeek 模型的训练与推理,覆盖从云端到边缘的全场景需求。比如,2 月 13 日,华为昇腾推出了服务器、推理卡等一体机产品形态,全面适配 DeepSeek V3/R1 全系列模型;开源中国方面消息显示,DeepSeek-V3 全精度满血版可以成功运行在沐曦训推一体 GPU 上;天数智芯完成 DeepSeek-R1 模型适配,上线多个大模型服务。 从效果来看,国产芯片通过专门的优化适配,效果并不弱于国际厂商的高端芯片。比如,华为此前表示,DeepSeek V3/R1 671B 旗舰模型(满血版),通常需要高端 GPU 进行推理,现在基于华为云昇腾云服务的全栈优化适配,可获得持平全球高端 GPU 部署模型的效果,提供稳定的、生产级服务能力,满足业务商用部署需求;根据天数智芯与 Gitee AI 联合发布的消息,在双方的高效协作下,仅用时一天,便成功完成了与 DeepSeek R1 的适配工作,经过严格的测试与验证,适配后的模型精度高度对标论文精度,展现出卓越的稳定性与可靠性。然而,国产方案只是英伟达方案的一半,甚至是几分之一,有助于进一步降低DeepSeek的使用成本。 此前 “国产算力芯片起飞” 这一观点频现报端,不过从结果来看当时更多是制造噱头。如今,在 DeepSeek 的带动下,国产算力芯片真的起飞了,成为终端应用部署 DeepSeek 模型的首选。同时,DeepSeek 也需要国产算力芯片的繁荣,百度搜索引擎的案例揭露出,拥有大规模用户基础的应用部署 DeepSeek 是一项不小的成本负担,国产算力芯片快速发展有望带动 AI 应用成本持续走低,使得产业更加良性发展。
0 阅读:0

科技确有核芯

简介:感谢大家的关注