当有人还在为deepseek疯狂的时候,真正的“王炸”才刚刚登场!
过去几周的时间,中国AI公司深度求索自主研发的deepseek大模型,用户增长速度快速飙升,直接把AI行业的头部应用ChatGPT拍在了沙滩上,短时间登顶全球100多个国家免费下载排行榜,堪称中国AI产业中的一匹黑马!
虽然没有英伟达的顶级AI芯片,但依靠算法优化和国产现有的AI芯片,让deepseek在逻辑推理、代码编译、文本撰写等方面达到甚至超过了ChatGPT的水平。
而deepseek能爆发的关键因素,其实是deepseek的开源免费开源策略,企业可以给予他的开源特性定制应用,所以这段时间我们看到不少医疗、教育等行业纷纷加入deepseek阵营,就连竞争对手也纷纷抛出橄榄枝。正是这种开源、免费、低价的策略,倒逼许多云厂商疯狂扩容,在很大程度上带动了我国服务器、云计算、电信通讯等行业。
不少人将deepseek视为国运级的科技成果,殊不知这只是开始,国产LPU才是我国科技产业发展史上的关键“拐点”!
国产LPU才是关键“拐点”
其实在deepseek爆火的日子里,大家发现一个非常残酷的现象,服务器崩溃事件!当你提问,今天出门穿什么?中午应该吃什么?本想着deepseek会给你意想不到的惊喜,结果却得到“服务器繁忙”的答案。
即便算力不到ChatGPT的20%,但也架不住千万级用户激增的需求,deepseek甚至一度因压力过大宕机三个小时。这点暴露了ChatGPT的缺点,高压之下依旧需要高端AI芯片的超强算力。如果有英伟达高的高端A100、H100芯片,更能确保服务的稳定性和连续性。
其实当英伟达断供高端AI芯片的那一刻,中国人就想到了如何解决“算力不足”的问题,芯片制造工艺不足,那就另辟蹊径,于是就有了LPU芯片,也叫语言处理单元,这是一种新型的AI芯片架构,它的设计专门用于高效处理语言和自然语言处理任务。
这种技术早期由美国公司groq首发,但如今国产LPU芯片技术已经迎头赶上,清华系创业公司“无问芯穹”正式宣布,自主研发首个FPGA大模型处理器“无穹LPU”,在Meta Llama 2-70B的推理任务中,性能比英伟达的高端AI芯片H100快10倍,成本直降90%。
根据最新消息显示,无问芯穹目前已经打通了deepseek R1、V3在壁仞、海光、摩尔线程等七个硬件平台上的适配优化,整个AI芯片生态的形态已经从早期的“GPU单挑”转向了当下的“LPU+GPU+TPU混战”,不再单单依赖于英伟达的GPU芯片。
关键在于,LPU芯片14nm制造工艺就能达到英伟达GPU10倍的速度。所以,国产LPU成功绕过了海外芯片制造供应链,有效解决了国产AI芯片在成本和制造工艺上的难题。
天平已开始倾斜
这些年,在通讯、互联网、通用半导体方面失利后,西方将所有的家当压在了人工智能行业,在断供中企的同时,吸引海外万亿资本为本地企业打造AI星际之门,试图在AI赛道掌握主动权。
如今天平已经倾斜,中国通过算法优化、芯片技术变道超车的形式挫败了西方对中国高科技产业的遏制和围堵。他们可以做到闷声发大财,结果却偏偏“助力”中国在科技细分领域全面崛起,这再一次印证了,制裁就是一把双刃剑,逆全球化潮流而动,到头来最终害人害己!
你觉得国产LPU芯片能取代英伟达,实现算力自主吗?
自媒体听风就是雨,当年就是自媒体天天吹华为,才遭到了制裁,好在华为挺过来了
打铁还须自身硬!中国加油!中国科学家加油!!
中国🇨🇳加油💪💪💪
我觉得完全可以!只要我们全力以赴,没有什么不可以改变的!
lpu
我用的这个软件,老是服务器繁忙,吹牛吹过头了