大模型落地竞逐,云计算大厂“百舸争流”

玩数据还有点懒 2024-08-19 21:22:58

2023年,国内大模型领域风起云涌。大模型的出现,给千行万业智能化带来了全新的机遇。众所周知,云计算是做大模型的最佳选择,以大模型算力为云的基本盘,是云厂商必须抓住的大生意。因此,云市场就随着大模型的火爆,而不断翻滚悸动,阿里云、腾讯云、华为云等国内几大云厂商也都布局了相关产品。

算力芯片领域受关注

大模型发展的背后除了海量数据之外,还需要庞大的智能算力支撑。

据数据显示,2022年我国智能算力规模达到268百亿亿次/秒,超过通用算力的规模;预计未来5年,我国智能算力规模的年复合增长率将达52.3%。

智能算力的发展与算力芯片息息相关。“GPU芯片是加大AI算力的核心。目前适合构建大模型的算力芯片就是GPU芯片。”张孝荣说。

王鹏也认为,“大模型对算力的要求很高,传统芯片相对低端化,算力有限。高端化的芯片比如GPU,其算力速度相对更快,有利于大模型的训练。”

不过目前,我国GPU芯片的发展还面临着一些阻碍。据张孝荣介绍,一是限于美国政府禁令,我国企业当前无法获得最先进的英伟达GPU;二是英伟达GPU价格昂贵,供应中国的单块芯片价格在1万美元至2万美元之间,而一个大模型需要数万块GPU,以此推算,算力投入至少需要几十亿元人民币,成本巨大。

云计算为AI大模型提供强大的算力支撑

与通用计算时代不同,AI时代的计算量达到了前所未有的量级,现有的单一计算架构很难满足AI的持续发展。未来的计算架构势必是由多元算力(例如CPU、GPU、DPU)组成的异构计算结构。

中国信通院云大所副总工陈屹力表示,云计算天然可以整合、调度异构算力,向AI大模型提供灵活、弹性、高效的算力服务,令底层多元算力“物尽其用”,成为AI大模型强大的算力支撑底座。例如,谷歌大模型Gemini便是使用了谷歌云提供的超级计算架构——“AI超级计算机”。

英伟达黄仁勋曾表示:与云厂商形成利益共同体,是Nvidia等芯片厂商未来生存的必要条件。未来的算力架构会在云上启航,也将在云上成长,最终成为孕育上层AI大模型应用“百花齐放”的创新土壤

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:7

玩数据还有点懒

简介:感谢大家的关注