获悉,在Hot Chips 2024大会上,英伟达(NVDA.US)公布了下一代GPU架构Blackwell的更多细节信息,以及未来的产品路线图。
Blackwell的技术突破
官方介绍,英伟达Blackwell是通用计算全栈矩阵的终极解决方案,由多个英伟达芯片组成,涵盖了从CPU和GPU计算,到用于互连的不同类型的网络。它是有史以来单个GPU所拥有的最强AI计算、内存带宽和互连带宽。通过使用高带宽接口,可在两个GPU芯片之间提供10TB/s的带宽。
英伟达表示,随着AI模型尺寸的增加,在多个GPU上拆分工作负载势在必行。而Blackwell足够强大,可以在一个GPU中处理专家模型。Blackwell拥有6项革命性技术,可支持多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理。
至关重要的是,Blackwell是一个更大的生态系统战略的一部分。黄仁勋称:“Blackwell不仅是系统的核心芯片,它将是英伟达历史上、乃至整个计算机历史上最成功的产品。
Blackwell的发布预示着AI的又一个突破时刻的到来,一经发布便得到了微软CEO萨蒂亚·纳德拉、Alphabet CEO桑达尔·皮查伊、亚马逊CEO安迪·贾西、OpenAI CEO萨姆·奥特曼,以及其他知名科技领袖和名人的支持。同时,AI公司和一系列其他技术企业也有着强劲的需求。
AI算力需求旺盛
由于人工智能研究的前沿转向计算密集型大语言模型,构建复杂人工智能系统所需的数学运算与图形芯片的工作方式相似,需要同时进行大量简单计算,高性能图形处理器便成为训练人工智能的算力基础。
毫无疑问,AI大模型的爆发式增长,正驱动着芯片算力需求不断升级。人工智能的数据模型对高性能、高算力的AI芯片需求极大,加之人工智能各领域应用快速发展,推动芯片行业的竞争日趋白热化,发展目标转向高算力、高灵活性和低功耗。
持续布局算力及AI
谷歌(GOOG.US)
科技公司要想在大模型竞争中赶上潮流,就必须构建强大的算力设施,AI芯片正成为香饽饽。目前谷歌纷纷开始布局自研AI芯片,加入人工智能芯片竞争。消息透露,谷歌正在开发人工智能专用芯片,例如量处理单元(TPU),这些芯片针对人工智能任务进行了优化,而不是使用为游戏技术创建的图形处理单元(GPU)。
此外,当 GPT-4 等更先进的 AI LLM 超越 Google Gemini,谷歌 试图通过 Tensor 芯片证明自己仍然掌控未来,从硬件优化到核心算法,再到 AI 大模型技术的应用完善,Google 正在拥有与AI阵营内的企业正面对抗的机会。
微软(MSFT.US)
援引知情人士消息称,微软计划推出首款为人工智能设计的芯片,来降低成本并减少对英伟达的依赖。消息称,微软芯片用于数据中心服务器,为训练大语言模型(LLM)等软件而设计,同时可支持推理,能为ChatGPT背后的所有AI软件提供动力。
运行ChatGPT的微软数据中心服务器目前用了上万块英伟达A100 GPU,为云客户提供先进的LLM,包括OpenAI和Intuit,并支持微软应用程序中的一些列人工智能功能。知情人士称,微软内部计划这款芯片提供给微软Azure云客户。
IBM(IBM.US)
近日,IBM公开披露了即将推出的IBM Telum II处理器和IBM Spyre加速器的架构细节。新技术旨在显著扩展下一代IBM Z大型机系统的处理能力,通过一种新的AI集成方法帮助加速传统AI模型和大型语言AI模型的协同使用。IBM特别强调这次更新的先进I/O 技术旨在降低能耗和数据中心占用空间。
特斯拉(TSLA.US)
近日,特斯拉创始人埃隆·马斯克旗下AI初创公司xAI发布了一款新的聊天机器人Grok-2,声称其性能与竞争对手OpenAI和Anthropic的产品相当。目前Grok-2将率先向马斯克旗下社交媒体平台X的付费用户提供服务。
值得注意的是,马斯克还公开表示,特斯拉今年计划在人工智能的训练和推理方面投入高达100亿美元,这一数字的背后,是对高端芯片的巨额采购预算,以及对Cortex超级计算机的坚定信念。这些芯片,是Cortex的心脏,是它强大计算力的源泉。
目前,特斯拉的超级计算机“Cortex”,搭载了约10万颗英伟达H100和H200芯片,正蓄势待发,准备训练特斯拉的全自动驾驶系统(FSD)和人形机器人擎天柱(Optimus)的神经网络。特斯拉的Cortex超级计算机,不仅是一个科技奇迹,更是对未来的一次大胆探索。随着人工智能技术的不断进步,Cortex将为特斯拉带来无限的可能。
微美全息(WIMI.US)
资料显示,科技巨头微美全息竞相入局AI,加大在5G专网、大数据、AI大模型、5G-A、数字经济、量子科技等重点新兴产业、未来产业方面的布局力度。这些领域普遍具备较高的准入门槛,需要前期大量的研发投入与资源积累,而微美全息凭借在云网数算方面的深厚积累,可以与新质生产力重点产业产生良好协同,并在AI芯片算力重点产业布局中占据先机。
在产品布局与技术创新的同步推进下,为了加速存算一体AI芯片产业化,发挥AI在技术能力上的规模效应,微美全息打造更全新的基础设施,如新一代GPU型算力中心,以及能够容纳这些算力的新一代全息云平台等。通过大规模部署通算、智算等能力,微美全息研发通用大模型及面向特定行业的多模态大模型,在加大相关资本开支力度的同时推动AI芯片创新研发和量产应用。
结尾
不得不承认,AI 是未来技术发展的重要方向,大模型向边端设备下沉的产业趋势已经不可逆转。随着大模型应用落地加速,推理需求增加,芯片格局已经从GPU一家独大的局面向异构 CPU各路芯片群雄逐鹿的时代变迁。而身处其中的AI芯片玩家,如何实现芯片性能突破、产业链协同等将成为这一产业趋势下抢占市场先机的护城河,需要拿出自己的最新成果。