上周我们刚说过,Intel正式推出全球容量最大的FPGA Stratix 10 GX 10M,在70×74毫米的封装面积内包含了1020万个逻辑单元,14nm工艺制造,集成了443亿个晶体管。
13日,intel在旧金山举行 2019 人工智能峰会,再次推出从边缘到云端到全新 AI 芯片,包括下一代英特尔 Movidius Myriad 视觉处理单元 (VPU),耗时三年才落地的 Nervana 系列,面向训练 (NNP-T1000) 和面向推理 (NNP-I1000) 的 Nervana 神经网络处理器 (NNP)。
VPU再升级,性能十倍提升VPU(Video Processing Unit,视频处理单元)是一种全新的视频处理平台核心引擎,具有硬解码功能以及减少CPU负荷的能力,VPU可以减少服务器负载和网络带宽的消耗。区别于传统GPU(Graph Process Unit,图形处理单元),GPU偏于处理图形,而VPU专注于处理动态图像。
intel下一代Movidius VPU--Keem Bay,可用于边缘媒体、计算机视觉和推理应用,与上一代VPU相比,Keem Bay的推理性能提升了10倍以上,能效则可以达到竞品的6倍,该芯片拥有一种新的片上存储器架构,具有 64 位存储器带宽。Keem Bay 中封装了用于计算机视觉的专用芯片和 12 个可加快运行速度的专用(SHAVE)处理器内核,可使用 Myriad Development Kit(MDK)进行编程,从而兼容更多 AI 算法。
3年,云端 AI 芯片终落地英特尔推出面向 AI 推理和 AI 训练领域的两个系列产品,分别是神经网络训练处理器(Intel Nervana NNP-T)和神经网络推理处理器(Intel Nervana NNP-I),作为英特尔为云端和数据中心客户提供的首个针对复杂深度学习的专用 ASIC 芯片。
Nervana NNP-T代号Spring Crest,采用了台积电的16nm FF+制程工艺,拥有270亿个晶体管,硅片面积680平方毫米,能够支持TensorFlow、PaddlePaddle、PYTORCH训练框架,也支持C++深度学习软件库和编译器nGraph。Nervana NNP-I,代号为Spring Hill,是一款专门用于大型数据中心的推理芯片。这款芯片是基于10nm技术和IceLake内核打造的,打造地点是以色列的Haifa,Intel号称它能够利用最小的能量来处理高负载的工作,它在 ResNet50 的效率可达4.8TOPs/W,功率范围在10W到50W之间。